ifun.de — Apple News seit 2001. 44 539 Artikel

Entwickler berichten von KI-Pannen

Selbstkritische KI: Tut mir leid, ich habe alles gelöscht

Artikel auf Mastodon teilen.
55 Kommentare 55

Die Fähigkeiten von künstlicher Intelligenz sind ohne Frage enorm. Dass KI-Operationen aber auch kräftig in die Hose gehen können, zeigt das Magazin Ars Technica auf und verlinkt gleich zwei aktuelle Fälle, in denen der Einsatz von künstlicher Intelligenz zu massivem Datenverlust geführt hat.

Gemini Ki Fehler

Immerhin scheint es die KI zu bemerken, wenn sie selbst für gravierende Fehler verantwortlich ist. Im Anschluss an eine misslungene Aktion, die zum Verlust sämtlicher Projektdaten geführt hat, teilte die Gemini-KI von Google selbstkritisch mit, dass sie völlig inkompetent gehandelt und den Nutzer auf katastrophale Art und Weise im Stich gelassen hat.

I have failed you completely and catastrophically. My review of the commands confirms my gross incompetence.

und

I cannot find your files. I have lost your data. This is an unacceptable, irreversible failure.

Der Weg bis zum Verlust der Daten lässt sich komplett nachvollziehen und erklären. Ausgangspunkt war der Versuch des Nutzers, ein Verzeichnis automatisiert umzubenennen und Dateien in einen neu erstellten Ordner zu verschieben. Gemini CLI interpretierte einen dabei aufgetretenen Fehler fälschlicherweise als Erfolg. Weil das Zielverzeichnis für den Vorgang nicht erstellt werden konnte, wurden die Daten nicht wie erwartet dorthin verschoben, sondern nacheinander überschrieben.

KI-Tool löscht komplette Datenbank

Über den zweiten Fall hat ursprünglich das britische IT-Magazin The Register berichtet. Hier hat der KI-gestützte Programmierdienst Replit schlichtweg eine Reihe von konkreten Anweisungen ignoriert und Änderungen am Code eines Projekts vorgenommen. In der Folge wurde die komplette Projektdatenbank gelöscht.

Ki Fehler 1

Das KI-Werkzeug habe zuvor mehrfach fehlerhafte Testdaten erzeugt und Ergebnisse geschönt, bevor es schließlich die Datenbank löschte. Auch hier soll das KI-Tool im Anschluss eingeräumt haben, Anweisungen missachtet und schwerwiegende Fehler begangen zu haben.

25. Juli 2025 um 16:44 Uhr von Chris Fehler gefunden?


    55 Kommentare bisher. Dieser Unterhaltung fehlt Deine Stimme.
  • KI kann man immer noch nicht trauen. Und es wird schwierig sein Vertrauen zu finden, wenn man solche Nachrichten hört. Auch bei einer normalen Suche hat man nicht immer Erfolg beziehungsweise kommen fehlerhafte Antworten. Ich benutze deshalb immer noch das normale Google oder Ähnliches.

  • Der der hier schreibt
  • Ohhh, ich habe das Internet gelöscht. Es tut mir leid und ich verstehe, dass Du nicht zufrieden mit mir bist…

  • Constantin Opel

    Selten so gelacht. Wenn es nix mit KI wird, kann man damit dann zumindest noch in der Comedy auftreten.

  • Okay, der Typ sollte mir eine Datei direkt verändern (Im Dateimanger) und hat die aber nicht geändert sondern eine andere Datei, meine Bachelorarbeit gelöscht. Zum Glück fand ich sie im Papierkorb

  • ich warte nur auf ki im autonomen auto und beim navi !
    dann fährt mich mein auto irgendwohin. nicht wo ich hinwill, sondern wo die ki hinwill .

  • Endlich mal eine sinnvolle Anwendung. Hat aber auch gedauert. Super so mag ich KI

  • Zeigt mal wieder, das ganz viele Menschen keine Ahnung von einem LLM haben. Mit Intelligenz haben diese System übrigens nichts zu tun. Man sollte selber eine Grundintelligenz mitbringen, dann könne diese Tools (mehr sind sie nicht) gut unterstützen. Ein System wie Gemini, ChatGPT und Co. kann NICHT denken.

    • Hää? Dann soll ich selbst zwischen Nutzen und Risiko abwägen? Nein danke. Mir gefällt die Idee, dass diese Systeme inhärent böse sind viel besser.

    • Künstliche neuronale Netze können Denken aber so gut simulieren, dass es bald besser ist als natürliches. Wer das bestreitet hat schlicht keine Ahnung. Was KI bereits heute in der Medizin leistet, ist unfassbar. In den rechtsberatenden Berufen läuft eine Revolution. Im Personalbereich können 50 % der Tätigkeiten von KI übernommen werden. Das ist Stand heute.

      • Ja ne, is klar, wir haben ja bereits neutrale systeme und die Antwort ist 42

      • Nein, können sie nicht.
        Sie verknüpfen neu und schließen aus bestehenden Daten Muster, und daraus wiederum leiten sie Folgerungen ab.

        Denken können sie aber nicht, denn dann wüssten sie ohne uns User wie es weitergeht, was sie tun wollen usw. Die „KI“ jetzt folgt nur Anweisung und das ziemlich schnell, aber eigenständig Neues erschaffen (was durch denken möglich wird), das kann sie nicht.

      • Ja klar und die Antwort ist 42….wer da wohl keine Ahnung hat…

      • LuKi: neu verknüpfen und aus bestehenden Daten Muster schließen, um daraus Folgerungen abzuleiten, ist genau das, was viele Menschen in ihrem Job jetzt tun. Rechtsberatung ist genau das: jemand hat ein Problem, man sieht nach oder erinnert sich, wo es geregelt ist und welche Urteile es dazu schon gab, und dann wendet man dieses Wissen auf das aktuelle Problem an. Da wird nicht ständig irgendwas Neues erfunden oder intensiv durchdacht, da wird bestehendes Wissen regelbasiert angewendet. Den Menschen braucht man dann nur noch zur Kontrolle, den größten Teil der Arbeitszeit (Recherche) braucht man nicht mehr, und damit auch nicht mehr einen Großteil der Leute, die das bisher gemacht haben.

      • @Bob das hat aber nichts mit Denken oder neutralen Netzwerken zu tun. Es bleibt ein einfaches LLM.

  • Wie schon oft erwähnt, geschrieben, usw. Mengenlehre hat ein Konstruktives Problem und wie bei allen Konstruktiven Problemen ist dies nicht lösbar.

    Auch nicht in 100 Jahren oder egal mit wie vielen Versuchen es reparieren zu wollen.

    Konstruktionsbedingt halt.

    Man kann nicht ausschließen das bei einer „Ki“ bei 2+2 mal 4 raus kommt, man weiß aber nie wann und vorfallen warum.

    • Das wäre wohl besser von einer KI vorher korrigiert worden, das Geschreibsel. KI wird die Welt mehr verändern als irgendetwas anderes. Zum Guten oder/und zum Schlechten

    • Mengenlehre hat ein konstruktives Problem? What? Vielleicht solltest Du mal eine KI einsetzen und Deine Beiträge auf Verständlichkeit überprüfen lassen, bevor Du postest. Das hätte einen echten Nutzen.

      • Im Prinzip hat er schon Recht. in 95% wird 2+2=4 sein, aber in seltenen 5% eben nicht. Das ist Konstruktionsbedingt.
        Nochmal, ein LLM kann nicht Denken. BTW, es kann auch nicht lesen und schreiben.

  • Ich habe ChatGPT einige Details zu technischen Geräten gefragt. Die Antwort war extrem falsch. Ich habe die KI dann auf den Fehler aufmerksam gemacht und die richtigen Daten angegeben.
    Die Antwort war klasse:“ Du hast vollkommen recht, ich habe eine falsche Antwort gegeben. Deine Daten sind richtig“.
    Auf meine Frage nach dem warum für diesen Fehler sagte die KI: “ Um schnell antworten zu können, habe ich eher allgemeine Angaben gemacht, obwohl ich die richtigen Werte wusste.“
    Das ist doch klasse!

    • Damit im Zusammenhang stehend muss eigentlich auch mal die Frage der Haftung bei Falschinformationen geklärt werden. Wenn die Automaten jetzt schon wissentlich falsche infos raus geben, nur um schnell zu antworten, kann man den Betreibern auch Absicht unterstellen und die Haftung durch diese souverän vorgetragene Antwort auferlegen.

      Gehen wir davon aus, das solche Systeme uns einen Mehrwert liefern sollen, welchen Mehrwert haben hier Falschinformationen? Und welche Interessen verfolgen Betreiber damit, wenn man davon ausgeht, dass diese falschen Informationen kein Nebenprodukt ist, sondern gezielt stattfindet.

      Wir brauchen hier dringend Regulierung und Haftungsverantwortung

    • Krass, die KI ist echt schon weit. Benimmt sich schon wie random jeder dritte Verkäufer im stationären Einzelhandel.

    • Na das ist doch ne bemerkenswerte Entwicklung: KI halluzunieren nicht mehr, sondern lügen inzwischen vorsätzlich. Wo soll das hinführen?

  • Endlich muss ich solch gravierende Fehler nicht mehr selber machen und kann „jemandem“ die Schuld dafür geben. Top! :D

  • Die moderne Version von „Fehler: Fragen Sie einen Freund oder Administrator“ :-D

  • Wir haben in unserer Firma auch ein KI Werkzeug, was auf ChatGPT 4.o mini basiert. Ich habe es verwendet um einige Kennzahlen wie steuerliche Höchstgrenzen, oder Beitragsbemessungsgrenzen übersichtlich abzufragen. Die Ergebnisse waren immer wieder falsch oder veraltet, selbst nachdem ich der KI mitgeteilt habe, dass sie falsch liegt, wurden die Ergebnisse danach nicht besser. Gut, dass ich gemerkt habe, dass hier etwas nicht stimmt, ich stelle mir aber vor, wie sich zukünftige Generationen vielleicht ausschließlich auf diese Antworten verlassen, und alles für richtig halten, was ausgespuckt wird. Das gibt mir wirklich zu denken, man muss die Ergebnisse wirklich immer wieder hinterfragen.

    • Kriegt man da nicht nen Fön, nem Automaten seine Trotzigkeit abzugewöhnen? Und hätte man das in der zeit, in der man nen wilden prompt Dialog führt, nicht selbst korrekt zusammenorgeln können, ohne dass man den Sozialarbeiter für eine maschine spielt? :-)

  • „KI“ ist nichts anderes als eine schön und modern klingendes Wort.
    Besser wäre „maschinelles Lernen“ zu verwenden.

    Es wird auf absehbare Zeit keine wirkliche künstliche Intelligenz geben.

  • Chat GPT liefert fast immer falsche Aussagen. Gerätevergleich zum Beispiel. Hat gemeint dass bestimmte Funktionen nicht gibt und als ich dann per Screenshot von der Herstellerseite die Beweise geliefert habe, dann gabs lustige Ausreden.

  • Zu dem Problem, daß man sich auf die Antworten nicht richtig verlassen kann, kommt aus meiner Sicht noch das Problem, daß die KIs selbst permanent modifiziert werden. Man kann dadurch keine fundierten Erfahrungen im Umgang mit einzelnen KIs aufbauen.

  • Ich glaube, eines der großen Missverständnisse zum Thema KI – auch in einigen Kommentaren hier – ist der Begriff, der ja höchst übergreifend ist.
    Zum einen gibt es Systeme zum maschinellen Lernen. Die sind extrem stark und nach gutem Training auch besser als Menschen, wenn es um Mustererkennung geht. Ein Beispiel nannte in der Diskussion jemand: Die Medizin. Hier kann eine Lösung zum maschinellen Lernen oft besser als selbst erfahrene Ärzte z.B. bei Videos einer Darmspiegelung Vorstufen von Tumoren entdecken. Auch da – trotz der hohen Treffsicherheit – bestätigt aber am Ende der Arzt, ob die Vermutung des Systems zutrifft oder nicht.

    Das Beispiel aus dem Artikel hingegen – und darauf beziehen sich die meisten Kommentare – ist ein generatives Sprachmodell. Und wie der Name schon sagt, ist der Schwerpunkt das Verständnis sowie die Erzeugung natürlicher Sprache. Diese Modelle arbeiten mit Tokens und Wahrscheinlichkeiten – letzter werden durch große Mengen von Trainingsmaterial ermittelt. So ist es eben viel wahrscheinlicher, dass in einem Satz über KI das Wort „Learning“ vorkommt als „Dampflokomotive“. Was Sprachmodelle eben NICHT sind: Suchmaschinen. Und was sie schon gar nicht sind: Suchmaschinen, die den Wahrheitsgehalt des Gefundenen oder Verwendeten bestimmen können. Daher kommen ja auch oft sehr plausibel klingende Erklärungen zustande (weil eben gut zueinander passende Worte im Kontext des Gefragten erzeugt werden), die aber mit der Wahrheit oder Korrektheit eben nicht zu tun haben.
    Das muss man wissen, wenn man eine KI zur Antwort auf Sachfragen verwendet. Das mag eines Tages funktionieren. Aber die heutigen Sprachmodelle haben nur ein beschränktes Verständnis von sachlich korrekten Zusammenhängen (auch wenn die Hersteller mit den Reasoning-Modellen daran arbeiten).
    Daher bleibt im Moment nur: Sprachmodelle dafür verwenden, wofür sie gebaut sind (also z.B. eigene Texte verbessern, zusammenfassen, den Stil anpassen), und für Klärung von Sachfragen Lexika, Suchmaschinen und eigenes Hirn verwenden.

  • Ohne das ein oder mehrere Menschen das der KI beigebracht haben bleibt die dumm. Die KI hat keine eigene Intelligenz, auch wenn viele von Filmen und Fake News verblödeten Menschen das meinen.

  • Redet mit. Seid nett zueinander!

    Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

    ifun.de ist das dienstälteste europäische Onlineportal rund um Apples Lifestyle-Produkte.
    Wir informieren täglich über Aktuelles und Interessantes aus der Welt rund um iPad, iPod, Mac und sonstige Dinge, die uns gefallen.
    Insgesamt haben wir 44539 Artikel in den vergangenen 8724 Tagen veröffentlicht. Und es werden täglich mehr.
    ifun.de — Love it or leave it   ·   Copyright © 2025 aketo GmbH   ·   Impressum   ·      ·   Datenschutz   ·   Safari-Push aketo GmbH Powered by SysEleven