Es entstehen Versicherungen gegen Schäden durch fehlerhafte KI-Anwendungen. Diese Entwicklung wirft Fragen zur Verantwortung und Sorgfalt im Umgang mit KI-Systemen auf.
Lloyd’s of London hat in Zusammenarbeit mit dem kanadischen Start-up Armilla eine Police eingeführt, die Unternehmen vor finanziellen Verlusten durch Fehlfunktionen von KI-Systemen schützt. Abgedeckt sind unter anderem „Halluzinationen“ von KI-Chatbots, also Fälle, in denen die KI falsche oder irreführende Informationen generiert.
Das ist eine sehr gefährliche Entwicklung. Aktuell werden Ergebnisse einer KI meist durch Menschen geprüft, bevor kritische Handlungen initiiert werden. Sind die Ergebnisse der KI meist korrekt besteht die Gefahr, dass der Mensch der KI mit der Zeit so viel Glauben schenkt, dass er die kritische Handlung ungeprüft auslöst. Ist die entscheidende Person zukünftig gegen Fehlentscheidungen versichert, reduziert dies den Druck, eine umfassende Prüfung durchzuführen. Kaum auszudenken, welche Folgen dies z. B. bei ärztlichen Diagnosen und der anschließenden Behandlung haben könnte.
Unternehmen sollten Versicherungen als Ergänzung, nicht als Ersatz für robuste Sicherheitsmaßnahmen betrachten. Eine umfassende Prüfung und kontinuierliche Überwachung von KI-Systemen bleiben essenziell, um Risiken zu minimieren und Vertrauen in die Technologie zu gewinnen.