Das globale Thema Digitalisierung ist in den letzten Jahren verstärkt in den Fokus von Unternehmen und Institutionen gerückt. Auch in Zukunft werden Strategien zur Digitalisierung von Geschäftsprozessen und -modellen eine zentrale Rolle für die Unternehmensentwicklung, aber auch für die Gewinnung und Bindung von Mitarbeitenden spielen. Nicht zuletzt geht es darum, die Innovationskraft und damit die Wettbewerbsfähigkeit zu steigern. Aus diesem Grund war roosi bei der Veranstaltung "Essen Digitalisiert 2023" als Teilnehmer vor Ort.
Die Veranstaltung "Essen Digitalisiert" zeigte, wie digitale Technologien die Lebensqualität und Wirtschaftskraft der Stadt bzw. Kommune verbessern können. Eine wichtige Rolle spielt dabei die Künstliche Intelligenz (KI), die immer mehr Anwendungsbereiche erschließt.
KI ist eines der spannendsten und innovativsten Themen. Doch wie kann man das enorme Potenzial von KI nutzen, ohne sich in technischen Details zu verlieren?
In diesem Blog-Eintrag möchten wir einige Aspekte von KI vorstellen, die wir aus den Vorträgen "Rund um KI" von Ole Meyer, Patrick Imcke, Simon Krannig und Prof. Dr. Hannes Rothe gelernt haben. Es geht um die Virtualisierung großer Sprachmodelle, die Chancen von No-Code für den Mittelstand, generative KI und die damit verbundenen Daten, die Geschichte und das Versprechen unbegrenzten Wachstums.
Erforschung & Auswirkungen von KI: Einblicke aus vier Vorträgen
Essen Digitalisiert 2023 - Design Offices Essen Ruhr Tower
1001 LLMs: Virtualisierung großer Sprachmodelle
Ole Meyer (TamedAI)
Sprachmodelle sind KI-Systeme, die heute in der Lage sind, Folgetexte zu generieren. Sie können Dokumente wie Bilder empfangen und Informationen daraus extrahieren. So können sie aus diesen Informationen sinnvolle und relevante Texte generieren. Sie bilden die Grundlage für zahlreiche Anwendungen wie Chatbots, Übersetzer oder Textgeneratoren. Die Verwendung von Sprachmodellen bringt jedoch einige Herausforderungen mit sich.
Eine dieser Herausforderungen besteht darin, dass komplexe Probleme scheinbar gelöst sind, obwohl die Realität anders aussieht, als es auf den ersten Blick den Anschein hat. Sprachmodelle können nicht immer klar zwischen Wahrheit und Unwahrheit unterscheiden.
Ein weiteres Problem ist die Ungenauigkeit der menschlichen Sprache. Es ist oft eine Herausforderung, bestimmte Konzepte oder Begriffe zu definieren oder zu erklären, ohne auf ausführliche Beschreibungen zurückgreifen zu müssen. Manche Aspekte lassen sich nur schwer in Worte fassen.
Um diesen Herausforderungen zu begegnen, gibt es verschiedene Lösungsstrategien. Eine davon ist das so genannte Fine-Tuning. Dabei wird ein allgemeines Dokumentverständnis (Perceptor Basis) mit dem „Flavour“ (spezifisches Verhalten für ausgewählte Dokumenttypen) kombiniert, um ein auf verschiedene Anwendungsfälle spezialisiertes Modell zu erstellen.
Perceptor Basis + Flovour = Perceptor Konfiguration (Modell)
Eine interessante Möglichkeit, die Vorteile von Sprachmodellen zu nutzen, ist die Virtualisierung von Sprachmodellen. Das bedeutet, dass Sprachmodelle in kleinere Teile zerlegt werden, die je nach Bedarf abgerufen und kombiniert werden können. Dadurch kann jeder Kunde beliebig viele virtuelle Sprachmodelle betreiben. Durch diese Virtualisierung können auch große Sprachmodelle effizienter genutzt werden. Ein Beispiel für ein virtuelles Sprachmodell ist 1001 LLMs, das aus über 1000 verschiedenen Sprachmodellen besteht, die je nach Kontext ausgewählt werden.
Die Optimierung der Flavours und einige Verbesserungen an der richtigen Stelle können einen großen Effekt haben und die Dunkelverarbeitungsquote um das 47-fache erhöhen.
Bei der Verwendung von Sprachmodellen ist es wichtig, wie gut das Modell erkennt, was es nicht weiß. Die Fähigkeit des Modells, seine eigene Unwissenheit zu erkennen, ist eine wichtige Metrik zur Bewertung der Qualität von Sprachmodellen.
In wenigen Mausklicks KI entwickeln: Welche Chancen bietet No-Code für den Mittelstand?
Patrick Imcke (Gründer & CEO von Your Easy AI)
Kann KI ohne Experten entwickelt werden? - Die Entwicklung von KI wird oft als komplex und anspruchsvoll wahrgenommen, da sie Expertenwissen erfordert. Inzwischen gibt es aber auch einfache und zugängliche Möglichkeiten, KI ohne Experten zu entwickeln. Eine dieser Möglichkeiten ist das sogenannte No-Code-Prinzip.
No-Code ermöglicht die Erstellung von Software oder Anwendungen, ohne eine einzige Zeile Code schreiben zu müssen. Stattdessen können grafische Benutzeroberflächen, Drag-and-Drop-Funktionen oder vorgefertigte Bausteine verwendet werden, um individuelle Lösungen zu entwickeln. Dies gilt auch für den Bereich der KI. No-Code-Plattformen ermöglichen es, eigene KI-Anwendungen mit wenigen Mausklicks und ohne technisches Know-how zu erstellen. Dies bietet vor allem KMU große Chancen, von den Vorteilen der KI zu profitieren und sich im Wettbewerb zu behaupten.
No-Code AI eignet sich besonders für einfache Problemstellungen, bei denen der Anwendungsfall auch von anderen Unternehmen genutzt wird. Es bietet die Möglichkeit, KI auszuprobieren und Risiken zu minimieren. No-Code AI eignet sich jedoch nicht für zu spezifische oder komplexe Anwendungsfälle, die eine unverhältnismäßige Anpassung erfordern.
Wir hatten die Möglichkeit, die Entwicklung einer eigenen KI live mitzuerleben, die anhand von Mitarbeiterdaten eine statistische Analyse durchführte, um Faktoren zu ermitteln, die die Kündigungswahrscheinlichkeit beeinflussen. Mit diesen Erkenntnissen kann der Arbeitgeber Maßnahmen zur Verbesserung der Mitarbeiterzufriedenheit und -bindung ergreifen.
Eine interessante Entwicklung im Bereich der KI ist die Möglichkeit, in Zukunft Muster mit Hilfe von KI zu erkennen. Das bedeutet, dass KI-Modelle selbstständig Muster erkennen können, die auf zukünftige Entwicklungen oder Trends hinweisen. Dadurch können Unternehmen frühzeitig auf neue Chancen oder Herausforderungen reagieren und ihre Strategien entsprechend anpassen.
Kräftemessen in der Welt der KI - Wie die Open-Source-Community es mit den Branchenriesen aufnimmt und das Versprechen von Generativer KI in Unternehmen wahr werden lässt
Simon Krannig (ADACOR Hosting)
Die Welt der KI ist geprägt von einem ständigen Kräftemessen zwischen Branchenriesen wie Google, Amazon oder Microsoft, die über enorme Ressourcen und Daten verfügen, und der Open-Source-Gemeinschaft, die auf die Kraft der Zusammenarbeit und des Teilens setzt. Beide Seiten haben ihre Vor- und Nachteile, aber auch gemeinsame Ziele. Eines davon ist, generative KI für Unternehmen zugänglich und nutzbar zu machen. Generative KI kann Unternehmen helfen, neue Produkte oder Dienstleistungen zu entwickeln, bestehende Prozesse zu optimieren oder neue Märkte zu erschließen. Generative KI für Unternehmen bringt aber auch Herausforderungen mit sich, wie z.B. die Datensicherheit.
Beim Einsatz generativer KI ist es wichtig, die Sicherheit der Daten zu gewährleisten. Häufig werden Nutzerdaten in Provider-Umgebungen übertragen, was Bedenken hinsichtlich des Datenschutzes aufwerfen kann.
Eine mögliche Lösung ist der Aufbau einer eigenen Umgebung, z. B. einer eigenen Cloud. Dies kann jedoch kostspielig sein. Foundation LLM ermöglicht die nahtlose Fortsetzung von Texten, ebenso ist Fine-Tuned LLM eine beeindruckende Technologie, die es ermöglicht, Texte ohne Unterbrechung aufeinander aufzubauen. Durch die Feinabstimmung des Sprachmodells kann spezifisches Verhalten für verschiedene Arten von Dokumenten erzeugt werden. Das Training von LLM ist mit hohen Kosten verbunden, aber der Betrieb von LLM ist im Vergleich relativ kostengünstig (Proof of Concept).
Eine wichtige Frage beim Einsatz von generativer KI ist, wie man relevante Antworten erhält. Hier kann das sogenannte konzeptuelle Prompting eingesetzt werden. Dabei wird dem LLM spezifisches Wissen beigebracht, indem Informationen selbst recherchiert und dem Modell mitgeteilt werden. Eine weitere Möglichkeit ist die sogenannte Retrieval Augmented Generation, bei der kontextbezogene Informationen automatisch gesucht und als Antwort gesendet werden.
Generative KI bietet viele Möglichkeiten. Derzeit wird generative KI oft noch passiv eingesetzt. Eine spannende Entwicklung ist jedoch der Einsatz eines konversationellen Agenten, der aktiv nach relevanten Informationen sucht. Dabei muss der Benutzer dem LLM eine genaue Beschreibung des Anwendungsfalls geben, damit der Agent die Lösung entwickeln kann. Dies kann durch geeignete Werkzeuge und Eingabeaufforderungen erleichtert werden.
Eine Geschichte generativer KI und dem Versprechen grenzenlosen Wachstums
Prof. Dr. Hannes Rothe (Universität Duisburg-Essen)
Im 21. Jahrhundert hat das Wachstum der KI eine neue Dimension erreicht, angetrieben durch einen enormen Anstieg der Investitionen und Finanzströme in diesem Bereich. Unternehmen und Investoren erkennen zunehmend das Potenzial der KI und investieren große Summen, um die Entwicklung dieser Technologie voranzutreiben. Das Wachstum der Nutzerzahlen zeigt, dass die KI-Branche im Aufwind ist und immer mehr Menschen von den Vorteilen dieser Technologie überzeugt sind.
Es gibt jedoch auch Mythen über skalierbare KI, die besagen, dass Maschinen alles können, was Menschen können. Diese Vorstellung ist jedoch nicht ganz richtig. KI-Modelle sind nur in einem bestimmten Kontext wirklich effektiv und können nicht alle menschlichen Fähigkeiten und Eigenschaften reproduzieren. Es ist wichtig, die Grenzen der KI zu erkennen und zu verstehen, dass sie Stärken und Schwächen hat.
Die Geschichte der KI ist geprägt von grenzenlosem Wachstum, immer neuen Entwicklungen und Kreativität, indem sie uns neue Möglichkeiten eröffnet, die Welt zu gestalten. Es bleibt spannend, welche Entwicklungen die Zukunft bringen wird und wie KI unsere Welt weiter verändern wird.
Fazit
KI ist ein spannendes und vielfältiges Thema, das immer mehr an Bedeutung gewinnt. In diesem Blog haben wir einige Aspekte beleuchtet, die zeigen, wie KI die Welt verändert und welche Herausforderungen und Chancen sie mit sich bringt. Wir haben gesehen, wie Virtualisierung große Sprachmodelle zugänglicher macht, wie generative KI eine lange Geschichte und ein enormes Potenzial hat, wie No-Code-Plattformen die Entwicklung von KI ohne Programmierkenntnisse ermöglichen und wie die Open-Source-Community Innovationen vorantreibt und die Demokratisierung von KI fördert.
Insgesamt zeigt sich, dass generative KI ein großes Potenzial für Unternehmen bietet. Mit den richtigen Sicherheitsvorkehrungen und Anpassungen können Unternehmen von den Vorteilen dieser Technologie profitieren und innovative Lösungen entwickeln. Es ist jedoch wichtig, die Möglichkeiten und Grenzen von generativer KI zu verstehen und verantwortungsvoll damit umzugehen.