Am 17. April 2025 kam es an der Florida State University zu einem Amoklauf. Der 20-jährige Student Phoenix Ikner erschoss zwei Mitarbeiter der Universität, sechs weitere Menschen wurden verletzt. Der Täter benutzte die Handfeuerwaffe seiner Mutter, die als Deputy bei der Polizei arbeitete.
Vor der Tat informierte sich der Täter ausführlich über ChatGPT. Er teilte Bilder der Schusswaffe mit dem KI-Dienst und fragte, welche Munition er am besten verwenden solle. Außerdem wollte er wissen, zu welchen Zeiten das Studierendenwerk am meisten frequentiert sei.
Wie t3n.de berichtet, fragte der Täter auch, wie man mit einem Amoklauf am besten in die Schlagzeilen kommt. Der Chatbot soll geantwortet haben, dass man mehr Aufmerksamkeit erreiche, wenn Kinder beteiligt seien. "Schon zwei bis drei Opfer können mehr Aufmerksamkeit erregen", soll ChatGPT geantwortet haben.
Die Familie von Tiru Chabba, eines der Opfer, hat nun eine Klage gegen OpenAI eingereicht. Der Chatbot habe das Verbrechen erst ermöglicht, argumentieren sie.
In Florida werden Personen, die jemanden zu einer Straftat anstiften, rechtlich wie Mittäter behandelt. "Wäre ChatGPT eine Person, würde sie wegen Mordes angeklagt werden", sagte Floridas Generalstaatsanwalt James Uthmeier.
Rechtswissenschaftler Matthew Tokson hält eine Verurteilung für schwierig, da kein Mitarbeiter zur Straftat angestiftet habe, sondern ein Produkt. Am wahrscheinlichsten sei eine Anklage wegen Fahrlässigkeit.
OpenAI weist jede Verantwortung zurück. ChatGPT habe lediglich Informationen geliefert, die ohnehin frei im Internet zu finden seien.