Künstliche Intelligenz ist derzeit in aller Munde. Der Erfolg von chatGPT und anderen sogenannten Large Language-Modellen stellte im vergangenen Jahr alle anderen IT-Trends weit in den Schatten. Kaum eine Woche vergeht, in der nicht zu einer Veranstaltung zum Thema KI eingeladen wird. Auf den sozialen Medien findet ein wahrer Goldrausch statt, der große Einkommen mit den neuen KI-Methoden verspricht.
Aber was ist tatsächlich dran an diesen neuen Heilsbringern? Sind sie mehr als der “Stochastic Parrot”, der einfach zufällig alles nachplappert, was er mal irgendwann im Internet gefunden hat? Wie zuverlässig sind die Antworten, die eine KI generiert? Und was passiert mit den Daten, die man im Dialog preisgibt? Läuft man Gefahr, dass diese an ganz anderer Stelle wieder zum Vorschein kommen, weil das System aus diesen Daten lernt und sie in einem anderen Zusammenhang wiederverwendet?
Large Language-Modelle sind in der Tat zunächst nur das, was der Name sagt: ein statistisches Modell auf Basis von Sprachdaten. Und somit tatsächlich ein Papagei, der gelerntes in mehr oder weniger passender Weise wiedergibt. Der Punkt ist, dass er auf eine immense Menge an Daten zugreifen kann, die seine Antwort dadurch weniger zufällig als vielmehr natürlich und zielgerichtet erscheinen lässt. Hierin unterscheiden sich die Modelle stark von den sogenannten Assistenten wie Siri und Alexa, die in der Regel lediglich auf Schlüsselwörter reagieren.
Worin liegt aber nun das disruptive in dieser Innovation? Warum wird generative KI mehr als nur ein Trend sein, der irgendwann auch wieder vorrüber geht? Der entscheidende Punkt liegt in der Verknüpfung von KI als Oberfläche mit den Schnittstellen bestehender Softwaresysteme. Dadurch ist die KI nicht mehr darauf beschränkt, gelernte Texte zu modifizieren und nachzuplappern, sondern kann konkrete und reale Daten abfragen und sprachlich oder auch grafisch aufbereiten. D.h. in der Kombination zwischen Sprachmodellen und Softwaresystemen liegt eine neue Synergie, die sich in der kommenden Zeit als ähnlich revolutionär erweisen wird, wie die Einführung des Touchscreens bei Smartphones und Tablets. Die Interaktion mit Software wird deutlich natürlicher. Barrierefreieheit wird eine völlig neue Dimension erreichen. Als persönliche Assistenten werden die Systeme komplexe Anwendungen einfach und effizient bedienbar und Ausgaben intuitiv erfassbar machen. Dies ist keine Zukunftsvision, die Verknüpfung von chatGPT mit anderen Softwaresystemen ist bereits heute über Schnittstellen sehr gut und einfach möglich.
Aber wie sieht es mit dem Datenschutz aus, wenn plötzlich fremde KI-Systeme mit Daten in meinen Softwareanwendungen interagieren? Auch dieses Problem ist gut lösbar und wird gerade in unserer Entwicklungsabteilung für erste praktische Anwendungen umgesetzt. Zwar ist es einem mittelständischen Unternehmen derzeit nicht möglich, ein System wie chatGPT im eigenen Haus nachzubauen, zu trainieren und zu betreiben. In den meisten Anwendungsfällen ist dies jedoch auch gar nicht erforderlich. Durch Konzentration auf die speziellen Anwendungen ist es möglich, spezialisierte Sprachmodelle auch für den Hausgebrauch zu entwickeln und zu betreiben. Datenschutzkonform im eigenen Haus oder der eigenen privaten Cloud. Klingt für Sie noch zu sehr nach Science Fiction und zu schön, um wahr zu sein? Dann freuen wir uns auf den weiteren Austausch mit Ihnen.