Als Branchenführer im Bereich Spezialmakler und Versicherungen verwaltet der Kunde komplexe Aufträge und bearbeitet große Mengen an Dokumenten und Korrespondenz zwischen Kunden und Versicherern.
Herausforderung
Der Kunde hatte über 16 Terabyte an Daten in seinem OpenText-System angesammelt. Die Informationen - eine Mischung aus E-Mails, PDFs, Tabellenkalkulationen und Polic-Dkumenten - waren weitgehend unstrukturiert und enthielten nur wenige Metadaten. Die Mitarbeiter hatten Schwierigkeiten, den Inhalt effektiv zu suchen, zu analysieren oder zu interpretieren. Dies hatte zur Folge, wichtige Informationen übersehen, und die Entscheidungsfindung war langsamer und weniger konsistent als erforderlich.
Lösung
Firemind entwickelte eine Retrieval Augmented Generation (RAG) Lösung, um die Daten des Kunden praktisch und nutzbar zu machen. Ein benutzerdefinierter AWS Lambda-Prozess identifizierte und kategorisierte Dateien, während Amazon Kendra die Inhalte indizierte, damit die Mitarbeiter sie abfragen konnten. Mithilfe von umfangreichen Sprachmodellen über Amazon Bedrock konnten die Mitarbeiter Fragen in einfachem Englisch stellen und erhielten präzise Antworten, genaue Antworten direkt aus den Dokumenten zu erhalten.
Genutzte Dienste
- Amazon Kendra - Indizierung und Abfrage von unstrukturierten Daten
- Amazon Bedrock - Anthropic Claude für Zusammenfassung und Antworten
- AWS Lambda - Identifizierung und Vorverarbeitung von Dateien
- Amazon S3 - skalierbare Speicherung und Abfrage

Die Ergebnisse
- Genauigkeit von 90 % bei der Beantwortung von Anfragen zu Antragsunterlagen
- Die manuelle Suchzeit wurde von Stunden auf Sekunden reduziert, was die Produktivität der Underwriting- und Schadenteams verbessert.
- Konsistente Antworten über alle Abteilungen hinweg, wodurch das Risiko, Informationen zu verpassen, verringert wird
- Klarer Weg zur Skalierung mit weiterer Integration in OpenText und zusätzlichen Anwendungsfällen