ifun.de — Apple News seit 2001. 44 078 Artikel

Entwickler berichten von KI-Pannen

Selbstkritische KI: Tut mir leid, ich habe alles gelöscht

Artikel auf Mastodon teilen.
34 Kommentare 34

Die Fähigkeiten von künstlicher Intelligenz sind ohne Frage enorm. Dass KI-Operationen aber auch kräftig in die Hose gehen können, zeigt das Magazin Ars Technica auf und verlinkt gleich zwei aktuelle Fälle, in denen der Einsatz von künstlicher Intelligenz zu massivem Datenverlust geführt hat.

Gemini Ki Fehler

Immerhin scheint es die KI zu bemerken, wenn sie selbst für gravierende Fehler verantwortlich ist. Im Anschluss an eine misslungene Aktion, die zum Verlust sämtlicher Projektdaten geführt hat, teilte die Gemini-KI von Google selbstkritisch mit, dass sie völlig inkompetent gehandelt und den Nutzer auf katastrophale Art und Weise im Stich gelassen hat.

I have failed you completely and catastrophically. My review of the commands confirms my gross incompetence.

und

I cannot find your files. I have lost your data. This is an unacceptable, irreversible failure.

Der Weg bis zum Verlust der Daten lässt sich komplett nachvollziehen und erklären. Ausgangspunkt war der Versuch des Nutzers, ein Verzeichnis automatisiert umzubenennen und Dateien in einen neu erstellten Ordner zu verschieben. Gemini CLI interpretierte einen dabei aufgetretenen Fehler fälschlicherweise als Erfolg. Weil das Zielverzeichnis für den Vorgang nicht erstellt werden konnte, wurden die Daten nicht wie erwartet dorthin verschoben, sondern nacheinander überschrieben.

KI-Tool löscht komplette Datenbank

Über den zweiten Fall hat ursprünglich das britische IT-Magazin The Register berichtet. Hier hat der KI-gestützte Programmierdienst Replit schlichtweg eine Reihe von konkreten Anweisungen ignoriert und Änderungen am Code eines Projekts vorgenommen. In der Folge wurde die komplette Projektdatenbank gelöscht.

Ki Fehler 1

Das KI-Werkzeug habe zuvor mehrfach fehlerhafte Testdaten erzeugt und Ergebnisse geschönt, bevor es schließlich die Datenbank löschte. Auch hier soll das KI-Tool im Anschluss eingeräumt haben, Anweisungen missachtet und schwerwiegende Fehler begangen zu haben.

25. Juli 2025 um 16:44 Uhr von Chris Fehler gefunden?


    34 Kommentare bisher. Dieser Unterhaltung fehlt Deine Stimme.
  • KI kann man immer noch nicht trauen. Und es wird schwierig sein Vertrauen zu finden, wenn man solche Nachrichten hört. Auch bei einer normalen Suche hat man nicht immer Erfolg beziehungsweise kommen fehlerhafte Antworten. Ich benutze deshalb immer noch das normale Google oder Ähnliches.

  • Der der hier schreibt
  • Ohhh, ich habe das Internet gelöscht. Es tut mir leid und ich verstehe, dass Du nicht zufrieden mit mir bist…

  • Constantin Opel

    Selten so gelacht. Wenn es nix mit KI wird, kann man damit dann zumindest noch in der Comedy auftreten.

  • ich warte nur auf ki im autonomen auto und beim navi !
    dann fährt mich mein auto irgendwohin. nicht wo ich hinwill, sondern wo die ki hinwill .

  • Endlich mal eine sinnvolle Anwendung. Hat aber auch gedauert. Super so mag ich KI

  • Zeigt mal wieder, das ganz viele Menschen keine Ahnung von einem LLM haben. Mit Intelligenz haben diese System übrigens nichts zu tun. Man sollte selber eine Grundintelligenz mitbringen, dann könne diese Tools (mehr sind sie nicht) gut unterstützen. Ein System wie Gemini, ChatGPT und Co. kann NICHT denken.

    • Hää? Dann soll ich selbst zwischen Nutzen und Risiko abwägen? Nein danke. Mir gefällt die Idee, dass diese Systeme inhärent böse sind viel besser.

    • Künstliche neuronale Netze können Denken aber so gut simulieren, dass es bald besser ist als natürliches. Wer das bestreitet hat schlicht keine Ahnung. Was KI bereits heute in der Medizin leistet, ist unfassbar. In den rechtsberatenden Berufen läuft eine Revolution. Im Personalbereich können 50 % der Tätigkeiten von KI übernommen werden. Das ist Stand heute.

      • Nein, können sie nicht.
        Sie verknüpfen neu und schließen aus bestehenden Daten Muster, und daraus wiederum leiten sie Folgerungen ab.

        Denken können sie aber nicht, denn dann wüssten sie ohne uns User wie es weitergeht, was sie tun wollen usw. Die „KI“ jetzt folgt nur Anweisung und das ziemlich schnell, aber eigenständig Neues erschaffen (was durch denken möglich wird), das kann sie nicht.

      • Ja klar und die Antwort ist 42….wer da wohl keine Ahnung hat…

  • Wie schon oft erwähnt, geschrieben, usw. Mengenlehre hat ein Konstruktives Problem und wie bei allen Konstruktiven Problemen ist dies nicht lösbar.

    Auch nicht in 100 Jahren oder egal mit wie vielen Versuchen es reparieren zu wollen.

    Konstruktionsbedingt halt.

    Man kann nicht ausschließen das bei einer „Ki“ bei 2+2 mal 4 raus kommt, man weiß aber nie wann und vorfallen warum.

  • Ich habe ChatGPT einige Details zu technischen Geräten gefragt. Die Antwort war extrem falsch. Ich habe die KI dann auf den Fehler aufmerksam gemacht und die richtigen Daten angegeben.
    Die Antwort war klasse:“ Du hast vollkommen recht, ich habe eine falsche Antwort gegeben. Deine Daten sind richtig“.
    Auf meine Frage nach dem warum für diesen Fehler sagte die KI: “ Um schnell antworten zu können, habe ich eher allgemeine Angaben gemacht, obwohl ich die richtigen Werte wusste.“
    Das ist doch klasse!

  • Endlich muss ich solch gravierende Fehler nicht mehr selber machen und kann „jemandem“ die Schuld dafür geben. Top! :D

  • Die moderne Version von „Fehler: Fragen Sie einen Freund oder Administrator“ :-D

  • Wir haben in unserer Firma auch ein KI Werkzeug, was auf ChatGPT 4.o mini basiert. Ich habe es verwendet um einige Kennzahlen wie steuerliche Höchstgrenzen, oder Beitragsbemessungsgrenzen übersichtlich abzufragen. Die Ergebnisse waren immer wieder falsch oder veraltet, selbst nachdem ich der KI mitgeteilt habe, dass sie falsch liegt, wurden die Ergebnisse danach nicht besser. Gut, dass ich gemerkt habe, dass hier etwas nicht stimmt, ich stelle mir aber vor, wie sich zukünftige Generationen vielleicht ausschließlich auf diese Antworten verlassen, und alles für richtig halten, was ausgespuckt wird. Das gibt mir wirklich zu denken, man muss die Ergebnisse wirklich immer wieder hinterfragen.

  • Redet mit. Seid nett zueinander!

    Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

    ifun.de ist das dienstälteste europäische Onlineportal rund um Apples Lifestyle-Produkte.
    Wir informieren täglich über Aktuelles und Interessantes aus der Welt rund um iPad, iPod, Mac und sonstige Dinge, die uns gefallen.
    Insgesamt haben wir 44078 Artikel in den vergangenen 8677 Tagen veröffentlicht. Und es werden täglich mehr.
    ifun.de — Love it or leave it   ·   Copyright © 2025 aketo GmbH   ·   Impressum   ·      ·   Datenschutz   ·   Safari-Push aketo GmbH Powered by SysEleven