Entwickler berichten von KI-Pannen
Selbstkritische KI: Tut mir leid, ich habe alles gelöscht
Die Fähigkeiten von künstlicher Intelligenz sind ohne Frage enorm. Dass KI-Operationen aber auch kräftig in die Hose gehen können, zeigt das Magazin Ars Technica auf und verlinkt gleich zwei aktuelle Fälle, in denen der Einsatz von künstlicher Intelligenz zu massivem Datenverlust geführt hat.
Immerhin scheint es die KI zu bemerken, wenn sie selbst für gravierende Fehler verantwortlich ist. Im Anschluss an eine misslungene Aktion, die zum Verlust sämtlicher Projektdaten geführt hat, teilte die Gemini-KI von Google selbstkritisch mit, dass sie völlig inkompetent gehandelt und den Nutzer auf katastrophale Art und Weise im Stich gelassen hat.
I have failed you completely and catastrophically. My review of the commands confirms my gross incompetence.
und
I cannot find your files. I have lost your data. This is an unacceptable, irreversible failure.
Der Weg bis zum Verlust der Daten lässt sich komplett nachvollziehen und erklären. Ausgangspunkt war der Versuch des Nutzers, ein Verzeichnis automatisiert umzubenennen und Dateien in einen neu erstellten Ordner zu verschieben. Gemini CLI interpretierte einen dabei aufgetretenen Fehler fälschlicherweise als Erfolg. Weil das Zielverzeichnis für den Vorgang nicht erstellt werden konnte, wurden die Daten nicht wie erwartet dorthin verschoben, sondern nacheinander überschrieben.
KI-Tool löscht komplette Datenbank
Über den zweiten Fall hat ursprünglich das britische IT-Magazin The Register berichtet. Hier hat der KI-gestützte Programmierdienst Replit schlichtweg eine Reihe von konkreten Anweisungen ignoriert und Änderungen am Code eines Projekts vorgenommen. In der Folge wurde die komplette Projektdatenbank gelöscht.
Das KI-Werkzeug habe zuvor mehrfach fehlerhafte Testdaten erzeugt und Ergebnisse geschönt, bevor es schließlich die Datenbank löschte. Auch hier soll das KI-Tool im Anschluss eingeräumt haben, Anweisungen missachtet und schwerwiegende Fehler begangen zu haben.
Schöne neue Welt.
KI kann man immer noch nicht trauen. Und es wird schwierig sein Vertrauen zu finden, wenn man solche Nachrichten hört. Auch bei einer normalen Suche hat man nicht immer Erfolg beziehungsweise kommen fehlerhafte Antworten. Ich benutze deshalb immer noch das normale Google oder Ähnliches.
Dito.
Die derzeitigen LLM und ML Modelle würde ich nicht als KI bezeichnen, die Modelle benötigen alle einen sinnvollen Einsatz und das liegt am User.
Kann man Menschen trauen?
Ich würde NIE einer KI trauen!
SKYNET ist nicht mehr fern.
Das ist ein fiktiver Film! Was los mit euch?
Gute SF sieht künftige Entwicklungen voraus…
1984 war auch mal Fiktion.
@Klausi: wenn selbst der Erfinder von AI davor warnt, dass wir auf dem besten Weg sind die Kontrolle zu verlieren, ist Skynet leider keine Fiktion mehr, sondern eine plausible Realität
Warum kann Fiktion nicht in Wahrheit umschwenken. Es war damals Fiktion, aber langsam scheint es sich zu bewahrheiten.
Automatische Türen und Kommunikatoren waren auch mal Star Trek Fiktion.
Ohhh, ich habe das Internet gelöscht. Es tut mir leid und ich verstehe, dass Du nicht zufrieden mit mir bist…
Das wäre noch das Beste. Einmal neu anfangen ;)
S.P.: „Willkommen in der Steinzeit!“
Selten so gelacht. Wenn es nix mit KI wird, kann man damit dann zumindest noch in der Comedy auftreten.
ich warte nur auf ki im autonomen auto und beim navi !
dann fährt mich mein auto irgendwohin. nicht wo ich hinwill, sondern wo die ki hinwill .
Also im Prinzip ne ganz normale Taxifahrt in Berlin…nur günstiger.
;) :)
Endlich mal eine sinnvolle Anwendung. Hat aber auch gedauert. Super so mag ich KI
Ja, sie wird uns endlich immer ähnlicher…:)))
Zeigt mal wieder, das ganz viele Menschen keine Ahnung von einem LLM haben. Mit Intelligenz haben diese System übrigens nichts zu tun. Man sollte selber eine Grundintelligenz mitbringen, dann könne diese Tools (mehr sind sie nicht) gut unterstützen. Ein System wie Gemini, ChatGPT und Co. kann NICHT denken.
Hää? Dann soll ich selbst zwischen Nutzen und Risiko abwägen? Nein danke. Mir gefällt die Idee, dass diese Systeme inhärent böse sind viel besser.
+1
Künstliche neuronale Netze können Denken aber so gut simulieren, dass es bald besser ist als natürliches. Wer das bestreitet hat schlicht keine Ahnung. Was KI bereits heute in der Medizin leistet, ist unfassbar. In den rechtsberatenden Berufen läuft eine Revolution. Im Personalbereich können 50 % der Tätigkeiten von KI übernommen werden. Das ist Stand heute.
Nein, können sie nicht.
Sie verknüpfen neu und schließen aus bestehenden Daten Muster, und daraus wiederum leiten sie Folgerungen ab.
Denken können sie aber nicht, denn dann wüssten sie ohne uns User wie es weitergeht, was sie tun wollen usw. Die „KI“ jetzt folgt nur Anweisung und das ziemlich schnell, aber eigenständig Neues erschaffen (was durch denken möglich wird), das kann sie nicht.
Ja klar und die Antwort ist 42….wer da wohl keine Ahnung hat…
Wie schon oft erwähnt, geschrieben, usw. Mengenlehre hat ein Konstruktives Problem und wie bei allen Konstruktiven Problemen ist dies nicht lösbar.
Auch nicht in 100 Jahren oder egal mit wie vielen Versuchen es reparieren zu wollen.
Konstruktionsbedingt halt.
Man kann nicht ausschließen das bei einer „Ki“ bei 2+2 mal 4 raus kommt, man weiß aber nie wann und vorfallen warum.
Das wäre wohl besser von einer KI vorher korrigiert worden, das Geschreibsel. KI wird die Welt mehr verändern als irgendetwas anderes. Zum Guten oder/und zum Schlechten
Ich habe ChatGPT einige Details zu technischen Geräten gefragt. Die Antwort war extrem falsch. Ich habe die KI dann auf den Fehler aufmerksam gemacht und die richtigen Daten angegeben.
Die Antwort war klasse:“ Du hast vollkommen recht, ich habe eine falsche Antwort gegeben. Deine Daten sind richtig“.
Auf meine Frage nach dem warum für diesen Fehler sagte die KI: “ Um schnell antworten zu können, habe ich eher allgemeine Angaben gemacht, obwohl ich die richtigen Werte wusste.“
Das ist doch klasse!
Endlich muss ich solch gravierende Fehler nicht mehr selber machen und kann „jemandem“ die Schuld dafür geben. Top! :D
Die moderne Version von „Fehler: Fragen Sie einen Freund oder Administrator“ :-D
Wir haben in unserer Firma auch ein KI Werkzeug, was auf ChatGPT 4.o mini basiert. Ich habe es verwendet um einige Kennzahlen wie steuerliche Höchstgrenzen, oder Beitragsbemessungsgrenzen übersichtlich abzufragen. Die Ergebnisse waren immer wieder falsch oder veraltet, selbst nachdem ich der KI mitgeteilt habe, dass sie falsch liegt, wurden die Ergebnisse danach nicht besser. Gut, dass ich gemerkt habe, dass hier etwas nicht stimmt, ich stelle mir aber vor, wie sich zukünftige Generationen vielleicht ausschließlich auf diese Antworten verlassen, und alles für richtig halten, was ausgespuckt wird. Das gibt mir wirklich zu denken, man muss die Ergebnisse wirklich immer wieder hinterfragen.