Absicherung von LLM-Integrationen in Ihre Business-Apps
Inhalt des Webinars
Ein Chabot halluziniert einem Kunden eine sehr großzügige Erstattungs-Richtline herbei und ein Richter entscheidet, dass diese KI-Erfindung für die Firma bindend ist. Ein Benutzer "überredet" ein LLM alles tun zu können und erhält prompt Zugriff auf sensible Daten. Beides sind Albtraum-Szenarien für ein Unternehmen. Aber dennoch: Mit dem großen Erfolg von Chatbots und LLM-Apps erhält die Integration von Generative AI in Business-Anwendungen heute eine zentrale Rolle in der Geschäftsstrategie vieler Unternehmen.
In dieser Session beleuchtet Sebastian Gingter, wie wir robuste LLM-basierte Lösungen entwickeln können, die sowohl innovativ als auch sicher sind. Wir diskutieren reale Beispiele von Problemen in Anwendungen, die direkt durch ein LLM entstehen wie eben Halluzinationen oder Prompt-Injection-Angriffe. Sie sehen, welche Maßnahmen führende Anbieter ergriffen haben, um solche Risiken zu verhindern und welche konkreten Möglichkeiten Sie haben, Generative AI in ihre Schranken zu verweisen und zu einem sicheren, vertrauenswürdigen und wertschöpfenden Bestandteil Ihrer Produkte zu machen.
Wann
Mittwoch, 24/07/2024 · 10:30
Berlin (GMT +2:00)
Das Webinar wurde beendet
Agenda
Spezifische Use-cases für unsere Betrachtung
Mögliche Probleme und Gefahren beim Einsatz von LLMs in diesen Use-cases
Lösungsansätze zur Vermeidung dieser Probleme
Moderatoren
Sebastian Gingter
Gen-AI Consultant
Göran Homberg
Moderator & Consultant
Bei Thinktecture berate und arbeite ich mit einer breit gefächerten Anzahl von Software-Teams aus unterschiedlichen Branchen und helfe ihnen, Stolpersteine zu vermeiden, schwierige Herausforderungen zu meistern und sich weiter zu entwickeln.