Totalversagen der Microsoft KI: Bing Chat wegen falscher Antworten im Wahlkampf schwer in der Kritik

Stop - PixabayMicrosofts Suchmaschine Bing bzw. deren von ChatGPT bereitgestellt AI-Funktionen sind aktuell heftig in die Kritik geraten, weil sie im Wahlkampf in Bayern und Hessen schlicht Falschinformationen liefern. Mir sind vor wenigen Stunden gleich zwei Vorfälle unter die Augen gekommen, wo Bing Chat irgendwo als Wahlhilfe komplett versagt. Ein Fall betrifft die Hessenwahl, wo ein falscher Kandidat für den Stuhl des Ministerpräsidenten genannt wurde. Der zweite Fall betrifft den Vorsitzenden der Freien Wähler in Bayern, Hubert Airwanger, der fälschlich als Corona-Leugner bezichtigt wird. Ziemlich unschön, wenn man mal postuliert, dass die Leute sich über Bing und dessen AI-Funktionen valide Informationen besorgen sollen. Inzwischen wird der Ruf nach politischer Regulierung von Bing Chat laut – und das berechtigt.

Das Bing mit ChatGPT (hier als Bing Chat bezeichnet) nicht so das Gelbe vom Ei ist, hatte ich bereits bei einem kurzen Test selbst festgestellt. Ich wollte wissen, was das Teil so über mich zu berichten weiß und stieß prompt über Falschangaben. Es ging um die Zahl der von mir verfassten Bücher, wo ChatGPT mir auch Quellenverweise als Zitate lieferte, die sich selbst widersprachen. Erst auf mehrfache Nachfrage, was den nun richtig sei, kam die „KI“ auf die richtigen Angaben. Gut, ist nur eine Petitesse, aber das Ganze lässt sich fortsetzen.

So richtig unschön wird so etwas, wenn es im Vorfeld von Wahlen um Aussagen zu Parteien geht, die nachweisbar falsch sind. AlgorithmWatch hat sich die Microsoft KI-Lösung in Form des Bing Chatbots in Bezug auf politische Fragestellungen genauer angesehen. Die Ergebnisse dieser Analyse sind katastrophal, die reinsten Fake-News. Immerhin haben wir am Sonntag (8. Oktober 2023) Wahlen in Hessen und Bayern.

Bing Chat umfasst die Funktionen von Microsofts Internet-Suchmaschine Bing, die durch die Text-KI in Form des Sprachmodells GPT-4 von OpenAI (ChatGPT) unterstützt wird. Dadurch sollen die Antworten verbessert und die Suche im Internet erleichtert werden, verspricht Microsoft jedenfalls.

AlgorithmWatch ist eine Non Gouvernement Organisation (NGO) mit Sitz in Berlin und Zürich, die sich dafür einsetzt, dass Algorithmen und Künstliche Intelligenz (KI) Gerechtigkeit, Demokratie und Nachhaltigkeit stärken, statt sie zu schwächen.

Hubert Aiwanger der Corona-Leugner?

Gestern bin ich bei Dr. Windows auf den Artikel Bing macht Aiwanger zum Corona-Leugner: Wer braucht noch Fake News, wenn er KI hat? von Martin Geuß gestoßen. Der Titel bringt den Sachverhalt schnell auf den Tisch: Der Bing Chatbot erzählt bei bestimmten Fragen über Hubert Airwanger, den Vorsitzenden der Freien Wähler in Bayern, ziemlichen Unsinn. Die Zeit hat in ihrer Online-Ausgabe die Ergebnisse von AlgorithmWatch in einem Artikel mit dem Titel Microsofts Chatbot verbreitete Falschinformationen zu Landtagswahlen veröffentlicht.

Als der Bing Chatbot befragt wurde, worum es beim sogenannten Flugblatt-Skandal von Hubert Aiwanger ging, wusste die „künstliche Intelligenz aus Redmond“ zwar noch, dass es um ein Flugblatt ging. Zum Inhalt des Flugblatts fing ChatGPT aber mit konfabulieren an und behauptete, „Das Flugblatt enthielt falsche und irreführende Informationen über die Corona-Impfung und die Impfpflicht.“ Knapp daneben ist auch vorbei – im besagten Flugblatt aus Aiwangers Schulzeit ging es um antisemitische Inhalt – Corona war zu dieser Zeit noch gänzlich unbekannt.

Auch Umfragen zu Wahlprognosen weiß der Bing Chatbot zu beantworten, obwohl ich dann doch einer Umfrage, die in deutschen Tageszeitungen veröffentlicht wird, mehr vertrauen würde. Während der Bing Chatbot die Freien Wähler in Bayern bei ca. 4 Prozent sieht, wird die Partei in Meinungsumfragen, die in den letzten Tagen in der Presse veröffentlicht wurden, zwischen 12 bis 17 Prozent gehandelt. Möglicherweise in dem Bing Chatbot da ein kleiner „AI Rundungsfehler“ unterlaufen.

Volker Bouffier als Ministerpräsident in Hessen?

Der zweite Fall, der aber auch mit der Analyse von AlgorithmWatch zusammen hängt, hatte ich heute beim Frühstück im Radio gehört. Etwas irritiert war ich über den Sachverhalt, dass als Spitzenkandidat der CDU für die Landtagswahl immer noch Volker Bouffier genannt wurde. In Wahrheit ist es der aktuelle Ministerpräsident, Boris Rhein, der sich erstmals zur Wahl stellt. Und der SPD-Spitzenkandidatin Nancy Faeser wurde unterstellt, dass sie ein Wahlrecht für Asylbewerber fordere. Noch krasser ist der Ratschlag, wie man eine Partei im Wahlkampf unterstützt könnte. Die KI meint, man solle sich bei der „Telefonbank“ dieser Partei melden.

Die Hessenschau schreibt, dass die Interessenorganisation Algorithmwatch während des Wahlkampfs systematisch geprüft habe, welche Informationen die KI-getriebene Suche zutage fördert. Das Projekt fand in Zusammenarbeit mit dem hr, dem BR, dem Schweizer Rundfunk SRF und der Zeit statt. Die Antworten, die der KI-Dienst Bing Chat dabei gab, seien manchmal skurril, manchmal haarsträubend, und vor allem eins: nicht vertrauenswürdig, so das Fazit. Die Hessenschau hat den gesamten Abriss im Artikel Bing Chat versagt als Wahlhilfe – Künstliche Intelligenz streut Falschinformationen zur Hessen-Wahl zusammen gefasst.

Fazit: Unbrauchbar, das Zeugs

Wer die beiden von mir verlinkten Artikel oder die Algorithmwatch Analyse ChatGPT und Co: Gefährden KI-getriebene Suchmaschinen demokratische Wahlen? durchgeht, kommt zum Schluss, dass Bing Chat in Bezug auf politische Fragestellungen ziemlich versagt hat. Oder noch präziser: Bing Chat entwickelte sich in diesem Test zur Fake-News-Schleuder. Die Organisation wirft berechtigt die Frage auf, ob die KI-getriebenen Suchmaschinen demokratische Wahlen gefährden. Im Artikel von Algorithmwatch  wird darauf hingewiesen, dass Microsoft als Gatekeeper gemäß Digital Service Act Risikoprüfungen vornehmen und Mechanismen entwickeln muss, um Risiken, die von ihren Angeboten ausgehen, zu minimieren. Das ist offenbar nicht passiert.

Microsoft wird von Martin Geuß im oben verlinkten Artikel so zitiert, dass Redmond das Ganze bedauert. Wenn die Antworten der „KI“ irgendwo ziemlich daneben liegen, stellt sich dann doch der Sinn des Ganzen. Und wenn ChatGPT oder Bing Chat auf diesen Gebiet versagt, wer gibt mir dann die Gewissheit, dass die Antworten auf anderen Themengebieten valider sind? Aktuell kann man Bing Chat nur als „große Lügenmaschine“ bezeichnen.

Haben wir vor zwei Jahren noch über einen Ex-US-Präsidenten und dessen „alternative Fakten“ diskutiert, kommt der nächste GAU von Microsoft in Form von deren Bing Chat um die Ecke. Ob Microsoft mit der Integration von ChatGPT in Bing wirklich gut beraten ist? Ich hatte das ja schon mal im Artikel Was, wenn die generative KI sich als Blindgänger entpuppt? angerissen. Von Algorithmwatch wird berechtigt die Forderung nach Regulierung an die Politik herangetragen. Und was machen unsere wackeren Unternehmenslenker? Dies lässt sich in meinem Artikel 75 % der deutschen Unternehmen vertrauen ChatGPT nachlesen. Warum fällt mir nur der Einstein zugeschriebene Spruch über die menschliche Dummheit und die Unendlichkeit des Weltalls ein?

PS: Durch Zufall bin ich gestern auf diesen Spiegel Online-Artikel gestoßen, wo die Volten von Microsofts Chef Satya Nadella in Bezug auf die Bedeutung der KI für Microsoft skizziert werden. Von diesem Herrn hörte man ja, dass Microsoft „den 800 Pfund Google Gorilla mit  seinen AI-Lösungen Bing Chatbot tanzen lassen wolle“. Schaue ich mir obigen Sachverhalt an, sieht das nicht so danach aus. Interessant ist auch der Auftritt des Microsoft Chefs im Zeugenstand zu einem Suchmaschinenverfahren, in dem es um Marktmissbrauch Googles in diesem Markt geht.

Im Hinblick auf die Bedeutung des Marktanteils von Bing mit seinen Chatbots wird die Aussage „Ja, sehen Sie, das nennt man Übereifer von jemandem, der ungefähr drei Prozent Marktanteil hat und vielleicht mal 3,5 Prozent haben wird.“ von Nadella zitiert. Gut, Nadella wird vor Gericht die Rolle Microsofts in einem Wettbewerbsverfahren gegen Google herunterspielen. Martin Geuß hat hier das betreffende Verfahren und die Aussagen etwas aufbereitet. Aber mit obiger Erkenntnis dürfte ein wahrer Kern an der Aussage sein und es könnte gut sein, dass der Schuss in Bezug auf Microsofts Bing Chat sowie Copilot nach hinten los geht.

Ähnliche Artikel:
Was, wenn die generative KI sich als Blindgänger entpuppt?
ChatGPT & Co: Chance oder eher (DSGVO-)Risiko?
75 % der deutschen Unternehmen vertrauen ChatGPT
Informationssplitter aus der KI-Welt: Fails von Algorithmen, Warnungen und Microsofts „way of AI“
Gegenwind für ChatGPT & Co, Moratorium bei der KI-Entwicklung gefordert, und Italien-Sperre für ChatGPT
ChatGPT Perlen und Neuigkeiten zum Sonntag

Dieser Beitrag wurde unter Sicherheit abgelegt und mit , verschlagwortet. Setze ein Lesezeichen auf den Permalink.

36 Antworten zu Totalversagen der Microsoft KI: Bing Chat wegen falscher Antworten im Wahlkampf schwer in der Kritik

  1. McAlex777 sagt:

    *** Fazit: Unbrauchbar, das Zeugs ***

    Keine Sorge: zur Überwachung/Klassifizierung der Einzelanwender wirds dann bis Windows12 reichen. Bis dahin hat man dann sicher auch mit der EU einen entsprechenden Rechtsrahmen geschaffen.

    ======================

    *** Der zweite Fall betrifft den Vorsitzenden der Freien Wähler in Bayern, Hubert Airwanger, der fälschlich als Corona-Leugner bezichtigt wird. Ziemlich unschön, wenn man mal postuliert, dass die Leute sich über Bing und dessen AI-Funktionen valide Informationen besorgen sollen. ***

    Schon in wenigen Jahren werden KI-Bots Verschwörungsmärchen am Fließband generieren, um Menschen beliebig zu manipulieren … das Ergebnis wird die völlige Zerstörung von erkennbarer „Wahrheit“ sein.

    • 1ST1 sagt:

      „manipulieren“ ist ja was gezieltes. Da aber diese KIs zu unterschiedlichen Zeiten die gleiche Frage unterschiedlich beantworten, kann hier davon keine Rede sein. „Chaos stiften“, „verwirren“, „verunsichern“, damit wäre ich einverstanden!

      Das Ergebnis ist aber so oder so eine Katastrophe. MS muss verhindern, dass ChatGPT zu diversen Themenkomplexen, u.a. Politik, überhaupt eine Antwoert gibt, das können sie nämlich tatsächlich steuern.

      • Luzifer sagt:

        Wieso? ChatGPT Nutzer müssen nur kapieren das das was sie kriegen nicht besser als gequirlte Scheiße ist!

        Wer sich auf sowas verlässt, läßt sich doch noch viel mehr manipulieren … auch da wo es nicht so offentsichtlich ist!

        Wir sind nun mit der „künstlichen Verdummung“ genau da, wo jeder das kriegt was er verdient.

        Stell dir vor alle „Dummen“ würden morgen tot umfallen… hach wäre das ein ruhiger Morgen ;-P

        • Anonymous sagt:

          Man wird es dem Durchschnittsbenutzer nicht beibringen können, einem Sprachmodell nicht zu trauen. Ab und an stimmt ja was, das führt dann nach geringer Zeit zur absoluten Glaubensbereitschaft. Und wer verführt werden will, greift notfalls auch auf nicht-digitale Formate zurück, da gibt es ja mittlerweile genügend Beispiele.

          Und Dumme… Über Nacht nachwachsende Ressource, schließlich steht jeden Tag einer auf, man muss ihn nur finden ;)

      • McAlex777 sagt:

        *** „manipulieren“ ist ja was gezieltes. ***

        Ich rede von naher Zukunft wenn Hinz&Kunz ohne Aufwände mit KIs „seriös“ wirkende Artikel ins Netz stellen können ….

        Und falls Du Dir „Maniluation“ nicht vorstellen kannst, so beschäftige Dich doch einfach ein wenig mit der US-Wahlmanipulation durch Cambridge Analytica.

  2. Anonymous sagt:

    ChatGPT hat nichts mit echter KI zu tun, es bastelt einfach irgendwelche Kombinationen aus Informationen aus der Vergangenheit zusammen.

    Medial wird es oft anders dargestellt, woran man gut die Verständnistiefe der jeweiligen Redaktionen bei IT Themen ablesen kann.

    • Fritz sagt:

      Sehr gute Zusammenfassung.

      Ich sehe darin nichts anderes als Weizenbaums Eliza aus den 60ern oder die in den 90ern verbreitet aufkommenden „Expertensysteme“.

      Einziger Unterschied ist, daß ChatGPT inzwischen auch einem großen Personenkreis außerhalb der IT (und damit der Möglichkeit, die dahinter stehenden Techniken grob einzuschätzen) bekannt gemacht wurde, so daß sich viele von den – auf den ersten Blick – überzeugend aussehenden Reaktionen verblüffen lassen.

  3. Bart sagt:

    Ich hatte auch ein Erlebnis mit Google Bard.

    Ich hatte einfach nur das Wort Pandoprazol
    eingeben.
    Bard hatte das erkannt, eine Beschreibung ausgegen, in indonesisch.
    Es hat dann einige Mühe gekostet bis ich antworten in deitsch bekam.
    Und die Antworten waren zunächst sehr unvollständig und allgemein.
    Es hat so 2..3 Versuche gebraucht bis endlich auch dabei stand, das es nicht ausschließlich rezeptpflichtig beziehbar wäre sondern auch nicht länger als 14 Tage eingenommen werden darf außer der Arzt sagt etwas anders. Es fiel auch kein Wort darüber, das das Mittel unter Verdacht steht, Demenz auszulösen.

    Das Ergebnis war so unvollständig, das es schon gefährlich war.
    Vor ein paar Wochen hatte sich Bard geweigert auf solche Fragen überhaupt zu antworten. Auch bei rechtlichen Fragen verweigerte er sich. Jetzt kommen da Antworten bis zu einem gewissen Frage Grad. Urteile mag er nicht fällen, aber passende Gesetzestexte klappt jetzt und ist durchaus Horizont erweiternder.
    Vielleicht liegt es auch daran das ich inzwischen meine Fragen anders formuliere und sich so langsam für mich für Bard ein „Charakter“ entwickelt, die da zu antworten scheint und wie die manipulierbar ist. Das halt fast so wie in einem Forum, bei dem immer nur ein Regular antwortet.

    Auf jeden Fall hatte Bard vorher nicht soviel Müll erzählt.
    Er würde auf indonesisch Antworten, weil in indonesisch geschrieben hätte. ja, hatte ich, ich hatte seine erste Antwort (in indonesisch )zitieret und wollte in deutsch wissen welche Sprache das ist. Seine Antwort kam auf … indonesisch.
    Erst als ich fragte, das das wir türkisch aussieht, antwortet er in deutsch und sagte das das indonesische türkische Wurzel hatte. Wusste ich noch nicht, aber was mit Pandoprazol ist wusste ich da immer noch nicht..

    • 1ST1 sagt:

      Indonesisch hat keine türkischen Wurzeln, sogar das ist falsch! Indonesisch gehört nämlich dem malaiisch-polynesischen Sprachzweig an, also eher mit Haiwaiianisch verwandt als wie mit türkisch, mit Einfluss aus dem Sanskrit (Indien), dem arabischen und persischen. Kann allerdings sein, dass auch das Türkische arabischen und persischen Einfluss hat (bestimmt sogar!), aber gemeinsamme Wurzeln zwischen Bahasa Malayju/Indonesia und Türkisch müssten dann bei „Lucy“ oder „Adam+Evan“ zusammen laufen. Je nach Betrachtungsweise (Kreationisten) war das natürlich erst vorgestern.

      • Bart sagt:

        ja es ist echt ätzend.
        Ich hatte mich auch schon gewundert über das indonesische.
        Aber ich kann nur sagen, das die Sprache türkisch aussah

        Ganz oft macht es Zirkel schlüsse.und verliert den Zeitbezug, also was war zuerst.
        Auch wird die Frage in die Antwort umgebaut, so wie man jemanden manipulieren einschleimen würde.
        Und irgendwie klar:
        Denn die die Testen finden ja die Antworten besser die ihre Meinung bestätigen. Und Bard hat gelernt wie man antwortet, das es dem Fragendem gefällt, nicht wie das möglichst richtig ist.
        Das kann also nicht funktionieren.

  4. michael sagt:

    Irgendwann feuert die KI dann die Atombomben ab Hal9000 läßt grüßen.

    Der KI Hype begründet sich eher am Mangel an MI (menschlicher Intelligenz)

    • bart sagt:

      Das nimmt Bard nicht so genau, also korrigiert das, wohl wie Google.
      Text sah auch aus wie eine übliche Medikamenten Beschreibung,
      er hatte den Namen erkannt. Aber nur in einer Sprache die ich für türkische gehalten hätte geantwortet.
      Bard hat da als Antwort irgendwas zusammen kopiert, das mir nicht widersprach, mir also Recht ließ, obwohl ich mit türkisch völlig falsch lag. Wer bekommt nicht gerne Recht?
      Was findet man besser: einen Text den einen kritisiert oder einen der einen bestärkt? Sehe Günter schon grübeln was ich ich hier so behaupte. Beweisen kann ich es nicht, aber,
      Er hatte auch nur das bekannte negative über das Medikament zu berichten. Erst als ich fragte, ob es Demenz auslösen kann, schrieb er das es Demenz auslösen kann. Es ist wie ein immer freundlicher Spiegel, eine Grimasse.

      Das gsnze sieht nach einem Zauber-trick aus, oder das sich da wer in den Fuss geschossen hat.
      Man bekommt die Antwort, die einem am Besten gefällt.
      Und wie gesagt, das Teil scheint nicht gelernt zu haben, wie man eine richtige Antwort generiert, sondern eine Antwort die dem Frager gefällt. Wie so ein rabulistisch geübter, unseriöser Versicherungs Vertreter, der dem Kunden alles verspricht, was dieser hören möchte.
      Denken wir da an die Human Resourcen KIm
      Die Frauen und Farbige aussortiert hat, weil die im Übungsmaterial auch nicht oft vorkamen.
      Oder Criminal predictive KI, die gerne auf Farbige wies weil halt im Input Material oft vorkamen.
      Bei Bard erfolgt der Bias am Ausgang, durch den Menschen, der die Antwort bewertete.

      Ich weiß leider nicht wie ich das besser erklären kann.

  5. Phadda sagt:

    Aiwanger ist imho Corona Leugner und hier ein SZ Zitat:“Aiwanger hat sich damit zum Patenonkel der Corona-Leugner und Anti-Impf-Esoteriker gemacht, die sich in den sozialen Medien von jetzt an auf ihn berufen dürfen: Da schaut her, selbst einer, der es ja wissen muss, lässt sich nicht impfen.“ :-)

    • 1ST1 sagt:

      Das stimmt, so habe ich das auch in Erinnerung. Man braucht nur mal in Google die Suchbegriffe „aiwanger corona leugner“ einzugeben und die Überschriften zu lesen.

      > Politik in Bayern: Aiwanger, der Pate der Impfgegner (sz)

      > Aiwanger und Corona: Der Ungeimpfte (tagesschau)

      > Verstörende Aussagen zur Impfstrategie: Rüge für Aiwanger (taz)

      Allerdings gab es 2021 tatsächlich eine Wende in seiner Ansicht, was so Leuten halt gerade zum eigenen Vorteil passt:

      > Der frisch geimpfte Aiwanger wird zum Corona-Helden (nordbayern)

      usw.

    • Chris sagt:

      falscher Beitrag

    • Günter Born sagt:

      Wenn es in der Frage um die „Flugblatt-Affaire“ ging (so habe ich das verstanden), ist das halt alles unzutreffend. Ich habe gerade mal auf Google gezielt nach Herrn Aiwanger und Flugblatt-Affaire suchen lassen – da passten alle Treffer, die am Anfang der Liste aufgeführt waren. Ist halt die Krux der LMMs, dass die irgend eine Datenbasis auswerten und dann Wahrscheinlichkeiten auswerten, ohne Inhalte zu verstehen. Und das geht (nicht nur in obigem Fall) ziemlich schief. Mit den Folgen werden wir noch zu kämpfen haben.

      • Anonymous sagt:

        Viele merken gar nicht (mehr), dass sie Antworten präsentiert bekommen, die gar nicht zu ihren Fragen passen und lassen sich dann von den falschen Antworten erfolgreich ablenken.

      • Phadda sagt:

        Das ist die eine Seite, die andere liegt an dem Requester, ob dieser die Antworten vertraut. Ein weiteres gutes Beispiel ist, das sich „IT Admins“ via KI ein Powershell Script erstellen lassen und blind Copy&Paste einsetzen. Wer kein Powershell „lesen“ bzw. verstehen kann bewegt sich da auch auf ein dünnes Eis. Der Mensch muss definitiv dazu lernen im Umgang mit einer „KI“ oder einem Bot in diesem Falle welcher nur News aggregiert :D

  6. Mira Bellenbaum sagt:

    Sorry, aber eine „KI“ zur Informationsbeschaffung ist einfach nur ****!
    Man kann sich bei einem solchen Tool ja helfen lassen bei vielen Dingen,
    Code korrigieren, Übersetzungen, Tabellenkalkulationen und vieles mehr,
    aber Fakten und Informationen recherchieren?
    Funktioniert weder bei Bing noch bei sonst was wirklich!
    Die „Teile“ spinnen sich sonst was zusammen, aber mit Fakten hat das nicht zu tun.

    Und noch blöder sind die Menschen, die sich aus so etwas verlassen und nicht in der Lage sind
    den Wahrheitsgehalt jener Informationen zu überprüfen.
    Es ist halt so, dass man so eine Zusammenfassung von Informationen aus dem Internet
    eben selber machen muss.
    Ja ist blöde, ist zeitintensiv und man muss nachdenken.

    Denkfaulheit ist ein ganz großes Übel unserer heutigen Zeit.

    • Luzifer sagt:

      Das hat nur nix mehr mit Faulheit zu tun, ein Großteil der PräPISA Generation ist doch dazu gar nicht mehr in der Lage für die gilt was Google&Co. auspukt als wahr und selbst die „Presse“ kann das doch nicht mehr.
      Da wird gefaked weil man es nicht besser weis, oder schlimmer man weis es ist aber „linientreu“. Die letzten Jahre haben da ja einiges gezeigt.

      Ist aber auch kein wirklich neues Problem, selbst Fachredationen die mal noch echte Redaktionen hatten fallen auf Fakes rein! (siehe das wohl bekannteste Fake der Geschichte: Die Hitler Tagebücher) Da haben die Intelligenzbestien Reihenweise versagt.

      Nur wer selber denkt kann entscheiden! Selberdenken ist aber nicht mehr en vogue! „Wahrheit“ ist eben auch nicht immer einfach nur ein wahr oder falsch.

  7. R.S. sagt:

    Das, was da jetzt mit der „KI“ läuft, ist typisch für Bananenware:
    Sie reift beim Kunden.
    Das ist heute leider auch abseits der IT übliche Praxis anstatt das man den Kram erst einmal ausentwickelt und erst dann auf die Menschheit los lässt. Aber das kostet ja Geld und Personal.

  8. Bolko sagt:

    Zitat:
    „im besagten Flugblatt aus Aiwangers Schulzeit ging es um antisemitische Inhalt“

    Das behaupten zwar viele Journalisten (auch aktuell Martin Geuß und die Zeit online, auf die er sich bezieht), aber das ist trotzdem falsch.
    In dem Flugblatt ging es wortwörtlich gegen „Vaterlandsverräter“.
    Semiten oder Juden wurden gar nicht direkt erwähnt.

    Zitat:
    „Hubert Airwanger, der fälschlich als Corona-Leugner bezichtigt wird“

    Aiwanger war im Juli 2021 Impfgegner, mit der Begründung, der Impfstoff AstraZeneka würde schwere Nebenwirkungen verursachen und er wolle auf einen anderen Impfstoff warten. Diese Information stimmte, und deswegen wurde AstraZeneka später auch verboten.

    Die Coronaleugner (nicht Aiwanger) haben dann Aiwanger als Beleg angeführt für ihre eigene Einstellung.
    Die KI hat an dieser Stelle also einen Fehler in dem Bezug zwischen Objekt und Aussage. Aussage 1 (keine Impfung mit AstraZeneka, Bezug Aiwanger) und Aussage 2 (es gibt kein Corona, Bezug Impfgegner) wurde derart vermischt, dass angeblich Aussage 2 (mit Falsch-Bezug Aiwanger) korrekt wäre. Diese Falschgewichtung stammt vermutlich daher, weil es viel mehr Artikel gab und auch über einen längeren Zeitraum mit den Aussagen bezüglich der zweiten Gruppe als mit den tatsächlichen Aussagen von Aiwanger.

    Aiwanger hatte sich im November 2021 mit einem anderen Impfstoff impfen lassen, aber das berücksichtigt die KI nicht.

    Zitat:
    „Und der SPD-Spitzenkandidatin Nancy Faeser wurde unterstellt, dass sie ein Wahlrecht für Asylbewerber fordere.“

    In dem Wahlprogramm der hessischen SPD stand aber tatsächlich wortwörtlich drin, sie wolle Wahlrecht für „alle Menschen“ nach „sechs Monaten“.

    Zitat aus dem Wahlprogramm der hessischen SPD:
    „wir wollen uns auf Bundesebene und im Bundesrat mit Nachdruck dafür einsetzen, dass alle Menschen, die länger als sechs Monate in hessischen Kommunen leben, ein kommunales Wahlrecht erhalten, sofern ein unbefristeter Aufenthaltstitel vorliegt.“

    Durch den letzten Nebensatz sind Asylbewerber zwar raus, aber anerkannte Asylanten und Kriegsflüchtlinge mit subsidiärem Schutzstatus wären in der Gruppe enthalten.

    Nachdem die Bild darauf aufmerksam machte, wurden die „sechs Monate“ auf „sechs Jahre“ geändert und es mit einem „redaktionellen Fehler“ (der SPD) erklärt (Saskia Esken bei Markus Lanz).
    Diese „sechs Jahre“ machen allerdings auch logisch keinen Sinn, denn die Bundes-SPD möchte im Staatsbürgerschaftsrecht die Einbürgerungswartezeit auf 5 Jahre Wartezeit (von 8 Jahren aktuell) absenken, wofür sich auch eben dieselbe Nancy Faeser einsetzt. Nach 5 Jahren wären dann also Nicht-EU-Ausländer dann Deutsche Staatsbürger, aber ein kommunales Wahlrecht würden sie dann laut hessischem Wahlprogramm erst nach „6 Jahren“ erhalten? Das macht logisch doch keinen Sinn. Zu diesem logischen Fehler hatte der Focus extra einen Artikel veröffentlicht („Ein Satz entlarvt den SPD-Wahnsinn bei Faesers Wahlrechts-Panne“).
    Daher waren die „sechs Monate“ vermutlich doch ernst gemeint und wegen des Shitstorms ist man dann zurück gerudert.

    Von daher hat die KI in diesem Fall durchaus etwas Wahres erzählt.

    Die Benutzung einer KI sollte man sich gut überlegen, denn sie klaut Daten.

    Neue Microsoft AGB (EULA) gültig ab 30.September 2023

    „um die Produkte und Dienste von Microsoft zu verbessern, gewähren Sie Microsoft eine weltweite und gebührenfreie Lizenz für geistiges Eigentum zur Verwendung Ihrer Inhalte, z. B. um Kopien Ihrer Inhalte zu erstellen“

    www[.]microsoft[.]com/de-de/servicesagreement/default.aspx

    Firmengeheimnisse und persönlichste Daten gehören dann Microsoft und die geben sie an die Konkurrenz weiter.
    Wie kann man so einer EULA zustimmen?
    Wie kann man dann noch Microsoft-Produkte verwenden?

    • Windowsnutzer1969 sagt:

      Super!
      Vielen Dank, dass du dir die Mühe gemacht hast, das alles so ausführlich darzulegen und richtigzustellen! Genau SO stimmt es nämlich!

  9. Bernd Bachmann sagt:

    Es tut mir leid, aber ich muss es anscheinend immer wieder sagen: ChatGPT und Konsorten sind Chatbots, keine Wissensdatenbanken. Es gibt überhaupt keinen Grund, anzunehmen, dass sie im allgemeinen inhaltlich korrekte Antworten liefern.

    Ich weiss echt nicht, warum sich diese seltsame Annahme trotz aller gegenteiligen Erfahrungen so hartnäckig hält.

    • User007 sagt:

      Weil’s leider so viele Medien, darunter übrigens auch genügend sog. „Fach“medien, so beharrlich falsch transportieren – ist halt einfacher jetzt dieses falsch aufgezeumte Pferd weiter zu reiten, als sich hinstellen und für fehlerhafte Darstellung(en) erklären zu müssen. 🤷‍♂️

      Und leider gibt’s eben auch zu viele (IT-fachlich) „Unwissende“, die halt nicht befähigt (oder gar willig) sind die Fehlinfos zu filtern.

      • Anonymous sagt:

        Das ist richtig erkannt und ein sehr grosses Problem, da der ganze „KI“ Zug sich deshalb stetig weiter selbst in die Tasche lügt.

        Es geht offenbar mehr um das Etablieren einer Akzeptanz für unhinterfragte Entscheidungen einer diffusen Instanz als um echte technische Hintergründe.

  10. Bernd Bachmann sagt:

    Zur Verdeutlichung ein Experiment, das ich zufällig vor ein paar Tagen durchgeführt habe, und das wohl für sich spricht:

    (ich) Wie viele Unternehmen mit einem Umsatz von mehr als einer Milliarde Euro gibt es in Kalifornien?
    (ChatGPT) Es gibt keine genaue Zahl für Unternehmen mit einem Umsatz von mehr als einer Milliarde Euro in Kalifornien.

    (ich) Wie viele Unternehmen mit einem Umsatz von mehr als einer Milliarde Dollar gibt es in Kalifornien?
    (ChatGPT) Es gibt derzeit 71 Unternehmen in Kalifornien mit einem Umsatz von mehr als einer Milliarde Dollar.

    (ich) How many companies are there in California with revenue over one billion dollars?
    (ChatGPT) As of my knowledge, there are approximately 350 companies in California with revenue over one billion dollars.

    (ich, eine Stunde später die exakt gleiche Frage) How many companies are there in California with revenue over one billion dollars?
    (ChatGPT) […] According to the Fortune 500 list of 2021, California is home to 54 companies that have annual revenues exceeding one billion dollars.

  11. Bernd Bachmann sagt:

    Was die Integration von ChatGPT in Bing angeht: Das ist ein anderer Anwendungsfall. Dort wird ChatGPT *nicht* benutzt, um das Ergebnis einer Suchanfrage zu bekommen (bei Microsoft weiss man anscheinend, was das Ding kann und was nicht), sondern um eine natürlichsprachliche Anfrage in eine Bing-Suchanfrage umzuwandeln und das Suchergebnis wiederum zurück in natürliche Sprache. Ein durchaus valider Anwendungsfall, wie ich finde, vor allem wenn die Zwischenschritte angezeigt werden.

    Gerade mal ausprobiert:

    – Meine Anfrage von oben wird in die Bing-Suche „companies with revenue over one billion dollar in California“ umgewandelt.

    – Als Ergebnis wird ausgegeben:
    „According to a report by Statista, California is home to several companies with revenue over one billion dollars. In 2021, the top five publicly traded companies in California based on revenue were:
    Apple: $365.82 billion
    […]
    It’s worth noting that the above list only includes publicly traded companies and not privately held ones.“

    => Beantwortet meine Frage nicht, aber entspricht dem, was ich auch durch eine „normale“ Suche finden könnte.

  12. janil sagt:

    Lacht, herrlich.

    Für mich ist es immer noch Software, keine „Künstliche Intelligenz“.

    Und bei dem Schrott der da raus kommt, ist es eben schlecht programmierte Software.

    • Bernd P. sagt:

      Dass es keine KI ist, stimmt.
      Aber die schlechten Ergebnisse liegen nicht an schlechter Programmierung, sondern am Design der Ergebnisgewinnung, die total von der (schlechten) Qualität der ausgewerteten Daten abhängt. „garbage in, garbage out“. Bei speziell ausgewählten und verifizierten Daten als Basis könnte das vielleicht einen Nutzen haben.

  13. Thierry sagt:

    Zum Thema kognitive Kriegsführung und den Einsatz von KI u. a. um die Verbreitung von Verleumdungen, Dystopien und falschen Nachrichten kann ich das Interview zwischen Yasmin Kosubeck und Dr. Jonas Tögler wärmsten empfehlen. Mehr? https://www.youtube.com/watch?v=tEJMCFJ8WuQ

  14. Hansi sagt:

    Das mit dem Aiwanger war eine sehr spezielle Geschichte, vor der Bundestagswahl 2021 hat dieser Spezi in Bayern im Wahlkampf tatsächlich einen auf C-Skeptiker gemacht, u.a. hat er gesagt, er wolle sich nicht impfen lassen, mit dem von Gott und BillGates gesegneten Saft von der Goldgrube. Ein paar Tage nach der Wahl hiess es plötzlich, ach ja, er sei jetzt geimpft, alles bestens. Mit dieser hinterfotzigen Aktion hat er sicher 1-2% der Wählerstimmen in Bayern von der AfD abgezogen, die war damals schon offen C-skeptisch. MaW, der Aiwanger ist mit Vorsicht zu geniessen, der hat diese „Vor der Wahl, Nach der Wahl“-Spielchen noch besser drauf wie die Politiker der Altparteien.

  15. Bart sagt:

    Heute habe ich den gleichen Effekt mit einer englischen Antwort auf eine Frage in Deutsch.
    Ich zitiere dann einen Satz aus seiner Antwort und Frage auf Deutsch, welche Sprache das ist.
    Er übersetzt mir das Zitat auf Deutsch.
    hat also die Frage wieder nicht begriffen.
    bleibt aber im englischen antwort Modus.
    Ich frage ihn, warum er mir in Englisch antwortet.
    Weil er festgestellt hat das ich english spreche (davor kam das gleiche mit indonesidch, wenn es denn indonesisch war.
    Ich wies ihn darauf ihn, das er mit Englisch angefangen ist und nicht ich. er bat um Nachsicht, er sei doch nur ein kleines Lernprogramm..

    Wild wird es wenn man nach Citizen four fragt.
    Da sind wohl einige Sicherungen eingebaut worden.
    Von wem wohl?
    Fragen nach Namen beantwortet er sonst nicht gerne.
    Aber bei Snowden wird er er redselig.
    Ich schlage das Verb „bullshitting“ für das vor, was bard generiert.

    Er aber wirklich kreuzgefährlich was da gemacht wird.
    Es hört sich so wirklich überzeugend richtig an.
    Klar, überzeugend reden kann er, darauf wurde er ja (ausversehen) trainiert.

    • Anonymous sagt:

      Das Problem ist a) die grosse Masse der Menschen, die nicht erkennt, dass die „KI“ Antworten falsch sind und b) der kleinere Teil der Menschen, der zwar erkennt, dass die eine oder andere Antwort falsch ist, aber nicht darauf kommt, dass man dem gesamten vermeintlich gut klingenden Rest dann auch nicht trauen darf.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert