Microsoft drückt Copilot ja mit aller Gewalt in den Markt bzw. der Anwenderschaft aufs Auge. Selbst in Schulen gibt es „Copilot für Lehrer“. Andererseits kommen mir kritische Statements unter, die das ganze AI-Zeugs hinterfragen und das Ganze – jedenfalls das, was Microsoft veranstaltet – als Holzweg sehen. Der Chef von Salesforce sieht in Copilot das „neue Karl Klammer“, mit dem Satya Nadella und seine Mannen viel Kohle verbrennen, letztlich aber auf den Bauch fallen. Schönes Sonntagsthema, auf das ich mal einen Blick werfe.
Quatsch-Maschine: Copilot für Lehrer
Wilfried L. hat mir heute per Mail einen Textausriss zukommen lassen, der sich mit dem Thema Copilot für Lehrer auseinander setzt. Der Berliner Tagesspiegel befasst sich in einem Artikel mit dem Titel „Unterricht leicht gemacht – Lehrer bekommen künstliche Intelligenz“ (leider hinter einer Bezahlschranke, daher nicht verlinkt, aktuell ist eine Fassung unter dieser URL abrufbar) mit der Einführung von Microsoft Copilot in Berliner Schulen.
Die Informationen aus dem Artikel: In Berlin hat die Schulverwaltung Microsoft Copilot (trotz massiver Datenschutzprobleme) eingeführt, damit Lehrer ihren Unterricht mit dessen Hilfe vorbereiten können. Damit gehöre Berlin zu den 13 Bundesländern, die Microsoft Copilot in Schulen für Lehrer und Schüler einführen. In Berlin haben Lehrer seit Beginn des Schuljahres Zugriff auf Copilot und dessen ChatGPT 4.0 LLM.
Der Artikel von Bildungsjournalist Christian Füller preist diesen Schritt – in meinen Augen – und die Vorteile arg unkritisch – der Text könnte streckweise aus einem Werbeprospekt von Microsoft entnommen sein. Das Copilot vielleicht hilft, in Physik die gleichmäßige Beschleunigung zu vermitteln – geschenkt – ein guter Pädagoge, der in seinem Fach gut ist, sollte das aber bereits wissen. Highlight des Vorteilskanons: Copilot soll ein Bild des Berliner Schulstaatssekretärs zeichnen und schafft das sogar – heilige Einfalt, wie verblödet sind wir bereits?
Laut Artikel sollen sich 2.800 der 40.000 Berliner „Leer“-Körper bereits für die KI-Fortbildung angemeldet haben. In Berlin ist die Nutzung von Copilot und die Teilnahme an Schulungen freiwillig, in manchen Bundesländern wie Bayern sei dies verpflichtend, heißt es. Von den Kultusministerien wird also Copilot und Microsofts KI per Order in das Bildungssystem gedrückt – einfach mal auf der Zunge zergehen lassen.
Berlins Schulsystem ist im KI-Zeitalter angekommen, heißt es freudig im Artikel. Liest sich in diesem Teil des Artikels wie „Schönsprech im Auftrag des Schulstaatssekretärs“. Der Mann wird mit „Das macht doch Spaß. Das sollen die Lehrer einfach auch ausprobieren können.“ zitiert.
Die Haken und Ösen des Ansatzes werden, fairerweise muss ich das konstatieren, im Beitrag auch angesprochen. So in der Art „wir wissen zwar nicht, was wir tun, aber wir machen mal“ hat die Berliner Schulverwaltung nicht mal einen Überblick, wie viele Lehrer und Lehrerinnen das Tool von Microsoft nutzen. Die Personalverwaltung will die Erfassung der Nutzungs- und -Leistungsprofile über die KI-Anmeldung verhindern. Und es gibt Tausende aus dem Lehrkörper, die die Annahme der Dienstgeräte verweigern.
Der Klopper kommt zum Schluss des Artikels: Offenbar hat das Kultusministerium die ganze Sache nicht mit der zuständigen Landesdatenschutzbeauftragten (LfDI) abgestimmt. Schulstaatssekretär Kühne (CDU) „sieht Copilot“ von Microsoft als datenschutzkonforme Lösung, die mit der LfDI abgestimmt sei. Eine Nachfrage des Berliner Tagesspiegel bei der LfDI ergab, dass man dort aus der Anfrage erstmals etwas über das Vorhaben erfahren habe. Also Blindflug auf der ganzen Linie.
Spannend, die Kollegen von Frag den Staat haben am Freitag, den 18. Oktober 2024, die Anfrage Einführung von Microsoft CoPilot in Schulen an den Berliner Senat gestellt. Mal schauen, was dabei herum kommt.
Der obige Ausriss liest sich zwar wie „Maschinenstürmerei zu Zeiten der Weber“ – „lasst doch die Leute mal machen, schließlich ist das modern und die Zukunft, was wir alles mit KI machen, optimieren und vereinfachen können“. Aber für mich war die Mail von Wilfried L. mit Hinweis auf das obige Thema eine Steilvorlage für nachfolgende Informationen.
Was, wenn die KI floppt?
Im Sinne des Artikel-Plots möchte ich auf einige Überlegungen hier im Blog zu AI zurück kommen. Man kann sich die momentane Entwicklung in Sachen großer Sprachmodelle (LLMs) anschauen und enthusiastisch, unkritisch oder mit Vorbehalten begegnen. Mich treibt aber noch eine andere Frage, aus Sicht eines Investors, um. Nein, ich halte keine Aktien von OpenAI – nur einige Anteilscheine von Microsoft. Aber ich stelle mir seit längerem die Frage, ob die Gelder, die da verbrannt werden, wirklich jemals erwirtschaftet werden können? Und damit verbunden ist die Frage, ob die Protagonisten der AI-Lösungen nicht eine gigantische Fehlinvestition befeuern. Denn der typische Hype-Zyklus ist bei der Entwicklung unübersehbar.
Ich hatte vor über einem Jahr, im August 2023, bereits im Artikel Was, wenn die generative KI sich als Blindgänger entpuppt? die Fragen aller Fragen gestellt. Solange die AI-Lösungen wirkliche Probleme lösen (z.B. bei der Auswertung von Aufnahmen von Geweben beim Krebsscreening in der Medizin, in der Datenauswertung in der Wissenschaft etc.), wäre nichts gegen einzuwenden. Aber die momentane Situation stellt sich für meinen Geschmack doch als „hallo, wir haben eine Lösung, und suchen nun krampfhaft ein Problem dazu“ dar. Wenn ich mir anhöre, was Microsofts Management als Vorteile ihres Copilot anpreist, geht mir oft „habt ihr sie noch alle“ durch den Kopf.
Da wird ernsthaft „die nächste Reise per KI buchen und Tisch im Restaurant bestellen“ propagiert. Noch bessere Mails und Dokumente erstellen, automatische Besprechungsnotizen von Meeting erstellen und so weiter sind weitere Argumente. Ist nur leider von der Lebenswirklichkeit von Millionen Menschen so weit weg, wie „die Kuh vom Eierlegen“. Klar, könnte AI die oben genannten Aufgaben erledigen, aber die Reinigungsfachkraft, der Installateur etc. hängt ja auch täglich an diesen Problemen.
Ein Forenteilnehmer hat es mal auf reddit sinngemäß mit „die im Microsoft Management sind immer dabei, Probleme zu lösen, die niemand von uns im Feld der IT oder Produktion hat – absoluter Quatsch-Haufen mit Ahnung von nix“ umrissen.
Und damit sind wir zurück beim „was wenn das Ganze floppt“. In diesem Zusammenhang fand ich interessant, was Analysten von Investmentbanken zu diesem Thema so denken. Im Beitrag Microsoft und seine KI: Änderungen im Kleingedruckten und Schwachstelle im AI Healthcare Chatbot Service hatte ich beispielsweise Zweifel thematisiert, die eine Analyse von Goldman-Sachs aufgreift. Dort wird die Frage gestellt, ob sich die Investitionen in AI jemals amortisieren können.
Da sind ja inzwischen gigantische Summen investiert worden, ich gehe davon aus, dass die unwiederbringlich „verbrannt wurden“. Schaue ich auf die Bilanz, muss man auch auf die gigantischen Energiemengen, die für die AI-Anfragen verbraten werden, hinweisen. Eine AI-gestützte Suchanfrage verbraucht die zehnfache Menge an Energie im Vergleich zur Anfrage an eine herkömmliche Suchmaschine. Irgendwo muss die Energie her kommen – Google, Meta, Microsoft & Co. wollen auf Kernreaktoren oder sogar Kernfusion setzen. Irgendwer muss diese Party aber bezahlen – und damit sind wir beim toxischen Mix, den ich im Blog-Beitrag AI + Microsoft: Explodierende Energieverbräuche und Kosten aufgegriffen habe.
Copilot: Microsofts Karl Klammer 2.0
Nach der langen Overtüre komme ich zum Finale: Was bedeutet das alles für Microsoft und seinen Copiloten? Manchmal fallen die Puzzleteile und passen plötzlich ins Bild. Gestern bin ich bei den Kollegen von Golem auf den Beitrag „Copilot ist einfach nur der neue Karl Klammer“ gestoßen.
Der Artikel stellt auf die Aussagen von Salesforce-CEO Mark Benioff ab. Salesforce ist selbst im Bereich der künstlichen Intelligenz tätig, ist also Konkurrent Microsofts. Aber Benioff sollte in diesem Kontext wissen, wie die Zusammenhänge sind. Und Benioff spricht im Rapid Response Podcast (Youtube) Klartext. Sind lange 25 Minuten, aber neben Golem hat Windows Central den Inhalt aufbereitet.
Der Salesforce CEO spricht von einem „enormen Bärendienst“, den Satya Nadella und Microsoft der KI-Branche mit seinem Copilot-Ansatz erwiesen habe. Seine harte Aussage: „Copilot ist nur das neue Microsoft Clippy. Es funktioniert nicht und liefert keinen Wert.“
Benioff geht davon aus, dass Microsofts Copilot-KI nicht lange Bestand haben wird, weil die Funktionalität enttäuschend sei und keinen Mehrwert bietet. Eine seiner Aussagen lautet sinngemäß: „Wenn man sich ansieht, wie Copilot an Kunden verkauft wurde, ist das enttäuschend. Es funktioniert nicht. Es spuckt uns zwar Daten vor die Füße, aber es liefert keinen Wert. Ich habe noch keinen Kunden gefunden, der mit Copilot erfolgreich gearbeitet hat. Copilot ist nur das neue Microsoft Clippy“.
Damit schließt sich der Kreis. Man kann zwar der Meinung sein, dass Copilot im persönlichen Umfeld hilft – mag ich nicht in Abrede stellen. Meine persönliche Erfahrung ist aber eher eine ernüchternd, negative. Ist aber nicht der Punkt im Kontext dieses Artikels. Gestartet sind wir mit der blauäugigen „wir machen mal was mit Copilot in der Schule“ Einführung in Berlin.
Dann habe ich einen Blick auf die wirtschaftliche Frage geworfen, ob sich die Investitionen amortisieren und welche negativen Folgen die Entwicklung (z.B. auf den Energieverbrauch) jetzt schon hat.
Und der Schlussakkord wird von der Aussage „das Zeugs ist nutzlos“ eines Protagonisten, der es wissen sollte, bestritten. Wir erleben ein Drama, welches von Microsoft gerade bestritten wird. Bleibt die Frage, wer diese Aufführung bezahlt und wer die Trümmer weg räumt. Sollte ich mich widererwarten getäuscht haben, stelle ich mich gerne in 10 Jahren (sofern es mich dann noch gibt) auf den Marktplatz und bekenne: „Sorry, Leute, ich habe mich geirrt“.
Ähnliche Artikel:
AI + Microsoft: Explodierende Energieverbräuche und Kosten
Der KI-Ressourcenverbrauch wird Stromnetze und Länder überfordern
Warnung: KI-Energiebedarf bald so hoch wie für die Niederlande
Rechenzentrumskostenausgleich: Google, Amazon, Microsoft und Meta kämpfen gegen Vorschlag von Ohio
Auf dem Weg zur CO2-Neutralität? Microsofts CO2-Emissionen 2023 dank AI um 30% gestiegen
Microsoft und seine KI: Änderungen im Kleingedruckten und Schwachstelle im AI Healthcare Chatbot Service
Lethal Injection: Microsoft AI-Bot für das Gesundheitswesen mal eben gehackt
Büchse der Pandora: Die Gesundheitsdaten, KI (Copilot, Adobe AI) und der Patienten-/Datenschutz
Was, wenn die generative KI sich als Blindgänger entpuppt?
Ich persönlich lehnen den ganzen KI-Quatsch ab. Da kommt am Ende nix sinnvolles bei raus und es wird nur sinnlos Energie verschwendet. Copilot in seinen ganzen Ausprägungen ist doch ausschließlich durch das Marketing getrieben. Dass jetzt sogar noch extra ausgestattete Copilot+ PCs mit speziellen Prozessoren ausgeliefert werden ist auch Wahnsinn. So soll überall Energie gespart werden aber bei KI ist es scheinbar egal was die Rechenzentren dafür und auch die einzelnen PCs verbrauchen. Insbesondere Microsoft soll sich darauf konzentrieren sein Betriebssystem zu verschlanken und auf das wesentliche zu beschränken. Die Sicherheit und die Funktionsfähigkeit auch nach Updates ist wichtig. Die Updates werden immer größer weil immer mehr Funktionen geändert oder repariert werden müssen.
Ich verwende ChatGPT aktiv im Unternehmen und habe damit schon mehrere tausende Euro pro Monat eingespart.
Ich freue mich schon auf die neuen CPUs mit denen man dann Modelle wie llama auch halbwegs sinnvoll lokal Laufen lassen kann, und mit eigenen Daten erweitern.
Zum Thema DSGVO verweise ich auf den Angemessenheits-Beschluss der EU 2023 zur USA. Und würde mir anstatt „Bedenken“ Mal einen Artikel mit konkreten Fakten wünschen.
Der Angemessenheits-Beschluss wurde schon mal durch den EuGH gekippt https://www.lhr-law.de/magazin/datenschutzrecht/schrems-ii-urteil-eugh-erklaert-eu-us-privacy-shield-fuer-ungueltig/ und ich denke mal Herr Schrems wird auch schon wieder gegen den von 2023 juristisch vorgehen. Wenn man ohne Bedenken alles anwendet was von Microsoft und Co. so auf den Markt wirft kann sich das später rächen.
Und wie man mehrere tausend Euro mit dem Quatsch einsparen kann ist mir rätselhaft.
Ergänzung: https://www.goerg.de/de/aktuelles/veroeffentlichungen/11-09-2023/klage-gegen-den-angemessenheitsbeschluss-der-eu-kommission-fuer-datenverkehr-mit-den-usa ein französischer Abgeordneter hat bereits dagegen geklagt.
Das ist richtig.
Ändert aber dann an der aktuellen Rechtssicherheit nichts. Selbst wenn das Gericht in ein paar Jahren zur Erkenntnis kommt dass die aktuelle Regelung ungenügend sein sollte..
Können sich bis dahin, US Unternehmen sich freiwillig der DSGVO unterwerfen. (Und nicht nur US Unternehmen).
Wie naiv will man sein?
Selbst wenn sich US Unternehmen freiwillig der DSGVO unterwerfen unterliegen sie immer noch der Gesetzgebung der USA und sind damit zur Herausgabe der Daten verpflichtet.
Ja, (leider) die wenigsten kennen und verstehen den Cloud Act und ähnliche Gesetze in den USA.
Kannst du deine Aussage „Ich verwende ChatGPT aktiv im Unternehmen und habe damit schon mehrere tausende Euro pro Monat eingespart.“ mal bitte mit Kontext versehen?
Für was verwendest du Copilot? Für was hast du jeden Monat „mehrere tausende Euro“ ausgegeben, die du jetzt mit Copilot angeblich einsparst?
Danke.
Ich automatisieren die Arbeiten im Büro, vor allem automatisches Erfassen von Mails, sortieren und umwandeln von PDF nach json.
Habe dadurch bei mir eine Mitarbeiterin eingespart. Und bei Kunden auch schon .
Die Stärke von allen LLMs ist einfach dass diese viel Kontext verstehen ohne Training. Wodurch sie für automatische Entscheidungen hervorragend funktionieren.
Der ganze „Wissens“ und Generative Teil ist für mich zwar nett, aber unerheblich.
„Ich automatisieren die Arbeiten im Büro“
Geht das bitte etwas präziser? Frage zehn Leute, was „Arbeiten im Büro“ sind, und du bekommst zehn verschiedene Antworten.
„Automatisches Erfassen von Mails“
Was soll man sich darunter vorstellen? Antwort worauf? Automatische E-Mail-Antwort?
Würde mich auch intessieren, inbesondere bei welcher Anwendung massenweise Daten aus PDFs nach JSON gewandelt werden und welche Entscheidung die KI dann fällen muss. Sind das Daten, die von extern kommen? Ist das Format der PDF, also Layout und Datenstruktur, standardisiert? Wie sind die Fehlerraten bei der KI-Entscheidung und wie schlimm ist es, wenn die KI mal daneben liegt? Gibt es auf Grund von Updates beim Copiloten plötzlich Dinge, welche nicht mehr wie vorher funktionieren und eine Anpassung erfordern?
Mehr Kontext wäre hilfreich. Vielen Dank!
ChatGPT Jünger hinterfragen solche Details selten.
Bank/Buchhaltung/Aufträge/Versand Informationen/Zoll Informationen usw.
Formate sind hier leider nicht standartisiert, weshalb hier ChatGPT so gut funktioniert. Also weder die Sprache, noch das Layout, noch der Inhalt folgen „Normen“.
Fehler sind je nach Bereich schlimm, und dürfen nicht passieren. Es gibt deshalb natürlich Prozesse um Fehler systematisch zu entdecken, und zu beheben. Spannenderweise gab es im letzten Jahr keinen einzigen Fehler, was unerwartet gut war. Fehler haben hier die menschlichen Mitarbeiter produziert, es ist nicht so einfach wie man meint, z.b. chinesische Rechnungen auf Inhalt zu prüfen. Die KI kann das in dem Fall besser.
Prüfen kann man die Dinge, weil man fast immer weiss, was man sich erwartet. Eine Rechnung beinhaltet ja die Details einer Bestellung, usw. Die KI muss also „nur“ die Rechnung zu einer Bestellung „matchen“. Die KI kann z.b. Dinge wie ein Mensch, z.b. wenn ein PDF durch OCR muss, ist meist die Qualittät fraglich. Die KI kann das erkennen, und auch typische OCR Fehler wie „ii“ statt „ü“ selbst erkennen, und berücksichtigen.
Direkt die Bilderkennung zu verwenden haben wir nicht implementiert. Kommt noch.
ChatGPT kann hier recht viele Dinge, welche wir gar nicht verwenden.. die KI könnte CallBack-Programm aufrufe selbst machen, das brauchen wir aber alles nicht.
Oh, das ist ja toll!
D.H. alle, die Zugriff auf die Daten der „KI“ haben, können sich ein genaues Bild des Unternehmens machen!
Und wenn bei Euch geschmuht wird, liefert Ihr auch noch gleich die Daten zum Nachweis!
Von Wirtschaftsspionage schon mal gehört?
Und wenn die „KI“ mal streikt, dann könnt Ihr den Laden dichtmachen, weil es ja niemanden mehr gibt, der Buchhaltung kann.
Und mal so ganz nebenbei, Du, Ihr verstoßt gegen den Datenschutz!
Oder haben alle Eure Kunden diesem „Schwachsinn“ zugestimmt?
Ich bezweifele das! Lass mich bitte wissen, wie Deine Firma heißt, damit ich Euch anzeigen kann.
Wenn Du Dir SO sicher bist, dass bei Euch alles i.O. ist, hast Du ja auch gar nichts zu befürchten.
Danke für deine Ausführungen.
dann hoffe ich mal, dass die durch ChatGPT verarbeiteten Daten im Nachgang nochmal stichprobenartig durch eine 2. (menschliche?) Instanz geprüft werden, damit auf ein XeroxGate kein KIGate folgt…
@squat0001
Zitat :“Ich verwende ChatGPT“ – „Ich automatisieren die Arbeiten im Büro, vor allem automatisches Erfassen von Mails, sortieren und umwandeln von PDF nach json.“
Habe ich das richtig verstanden ? Die ganze email Korrespondenz und eine größere Anzahl mit Unternehmensdaten (PDF) werden durch ChatGPT geschleust ?
Ich erinnere mich, dass bei Fragestellungen an ChatGPT „geheime“ Daten an ChatGPT übertragen wurden und viele Unternehmen genau das verhindern wollen.
Viele dieser Daten werden von Dir aber freiwillig an ChatGPT gesendet.
Oder läuft das bei Dir anders ?
Das habe ich mich auch gefragt. Der Angemessenheitsbeschluss ist zudem eine Luftnummer, da die US-Regierung laut Cloud Act jederzeit auf gespeicherte Daten von US-Unternehmen zugreifen dürften, selbst wenn diese innerhalb der EU gespeichert werden. Und diese Unternehmen dürfen das nicht mal weitergeben.
Steht ja sogar extra dabei, dass man ChatGPT keine internen Daten in den Hals schmeissen soll, und er packt da alles rein, was geht.
Mir wird jedes Mal ganz anders, wenn ich lese, wie blind die Leute jedes neue Tool nutzen.
Die Dummheit der Menschen ist unendlich!
Zitat: Habe dadurch bei mir eine Mitarbeiterin eingespart. Und bei Kunden auch schon.
Hat chatgpt schon vorgeschlagen den Chef einzusparen?
Ist das jetzt die neue Technik Leute auf das Abstellgleiss zu schicken? Die Sorte Chefs mag ich besonders – Hauptsache der Profit stimmt.
Nennt sich Archivierung und machen wir seit 25 Jahren für Großkunden. Ist nix Neues sondern seit Jahrzehnten Standard.
Ganz harte Afmin haben Dokumente schon vor vielen Jahren durch eine Cups-Schnittstelle gejagt und den Output weiter verarbeitet.
Abder schön das du das Erfolgsgeheimnis von MS lüftest:
Alten Wein in neuen Schläuchen völlig überteuert neu verkaufen und systematisch Unwissenheit und mangelndes Fachwissen ausnutzen.
Das soll jetzt kein persönlicher Angriff sein. IT ist zu komplex um vom Einzelpersonen nur annäherungsweise überblickt zu werden. Aber da wären halt ehrliche un rechtschaffende Partner gefragt.
Gru0
Ich sehe das nicht so negativ. Ich nutze Copilot als Erweiterung der Suchmaschine um mehr und schneller Ergebnisse zu finden. Dadurch, dass unter den Antworten immer Quellenagaben stehen, kann man die Antworten überprüfen und das muss man auch. Manche Fundstellen stammen von den Herstellern und damit hilfreich, manche Fundstellen wurden als Meinung in einem Userforum gefunden, da ist dann weitere Forschung nötig. Aber Copilot findet eben auch mehr, als wenn ich nur die google und Bing Suche nutze. Für mache Berichte, die ich zu erstellen habe, kann ich mir Bilder erstellen lassen, die auch copyright frei sind. Hilft deshelb, spart aber nicht wirklich Zeit, weil oft die „Erstelle mir eine Grafik zu …“ mehrfach formuliert werden muss, um das gewünschte Ergebnis zu erhalten. Welche Fragestellung am besten ist, lerne ich dann auch dazu. Auch Fantasiegeschichten für Kinder (Vorgabe 2 A4 Seiten) funktionieren super und auch das Erstellen von Zusammenfassungen (Kinofilm, Buch) klappen wirklich gut, besser als im Internet selbst danach zu suchen. Das spart dann auch richtig Zeit. In Summe = Wenn man sich im Thema auskennt, hilft die KI, wenn man wenig Ahnung oder Zeit hat, um Ergebnisse zu verifizieren hilft es nicht. Aber auch die KI wird besser . Ich bin bei Copilot auf 5-10 Anfragen am Tag beschränkt, da ich nicht mit einem Microsoftkonto angemeldet bin und mich daher Copilot auch nicht wirklich kennenlernt. Braucht ich auch nicht, und bezahlen möchte ich dafür auch nicht.
Copilot als Suchmaschinenersatz? Habe ich bereits ad acta gelegt. Die Antworten sind entweder veraltet oder ins Blaue hinein fabuliert. Man muss immer die angegebenen Quellen prüfen. Und da stellt sich dann (kein Einzelfall!) heraus, dass Copilot einen Zeitungsbericht von 2013 heranzieht und als aktuellen Stand der Dinge präsentiert. (Wäre zu schön, wenn die Bahnpreise noch so wären, wie Copilot sie angibt…)
Reklamiert man das in seiner Erwiderung, spuckt Copilot ein paar Entschuldigungsfloskeln hin und behauptet, nun eine bessere Antwort zu präsentieren – diese Zweitantwort ist dann regelmäßig entweder ohne Quellenangabe, somit wenig glaubhaft, oder gar identisch mit der ersten: Die KI weigert sich schlicht, aus den ihr klar aufgezeigten Fehlern zu lernen. Aber genau das würde ich von einer Intelligenz erwarten!
Ebenso nutzlos, wenn man auf eine Warum-Frage eine „Möglicherweise liegt es an dem oder dem…“-Antwort erhält.
Fazit: Wenn man die Wahrheit wissen will und nicht nur auf ein „Das Internet sagt das so.“ aus ist, spart Copilot durchaus keine Zeit, weil man die Richtigkeit seiner Antwort manuell nachprüfen muss. Da kann ich gleich wie bisher recherchieren.
Einen konkreten Vorteil habe ich bei LLMs, wenn ich nach Negationen oder Ausschlüssen suche. „Ich suche dies, aber es soll nicht das sein, trotzdem ähnlich zu diesem“ ist eine Fragestellung, bei der klassisches Googlen auch mit ergänzenden Operatoren meist in vielen Seiten Werbung ohne konkretes Ergebnis untergeht. Dabei kann es sich um „altes“ Wissen, also etablierte Informationen handeln, in vielen Fällen ist Aktualität dabei nicht wichtig. Ob das Ergebnis dann auch korrekt ist, sollte man aber schon selbst eruieren.
Beruflich wird das bei uns voll gehyped; man macht sich gerne zum Party-pooper, wenn man Sinn und Nutzen im Vergleich zum Aufwand hinterfragt…
Das liegt daran, dass die Marketing Abteilungen irgendwann dazu übergegangen sind Algorythmen als „KI“ zu bezeichnen, da „Algos“ schon zu sehr negativ verbrannt war. Meiner Meinung nach sind wir noch ganz weit weg um irgendetwas als „KI“ bezeichnen zu können.
Die „Quellenangaben“ sind teils frei erfunden, haben Sie sicherlich in jedem Einzelfall nachgeprüft, oder?
Ich mag dieses ganze „AI“-Klumpert auch nicht, aber besonders in Bezug auf den Salesforce-CEO darf man natuerlich nicht vergessen, dass er stattdessen seine eigene „Einstein AI“ verkaufen will… :/
Habe ChatGPT gerade zwei einfache Fragen gestellt:
a) Entwicklung des Weltrekords im Weitsprung der Männer.
ChatGPT spricht von 10 Weltrekorden, auf Wikipedia stehen allerdings 16 plus zwei Weltrekordeinstellungen.
b) Das Gleiche im Hochsprung der Männer:
20 Weltrekorde, sagt ChatGPT, Wikipedia kommt jedoch auf 37 plus vier Weltrekordeinstellungen.
Außerdem sind die Daten teilweise falsch, so ist etwa bei ChatGPT ein gewisser Edward Beeson (USA) mit 2,05 m am 2. Juni 1914 angegeben, laut der offiziellen Weltrekordliste der World Athletics waren es aber bloß 2,01 m. Dick Fosbury steht bei ChatGPT ohne Höhenangabe, Fosbury hat auch nie einen Weltrekord gesprungen (selbst nicht bei seinem Olympiasieg in Mexiko 1968), aber warum steht er dann auf der Liste?
Tiefer will ich hier gar nicht einsteigen. Solche Fragen sind noch vergleichsweise einfach, ich möchte gar nicht wissen, was ChatGPT bei komplexeren Fragen/Sachgebieten ausspukt. Wie will also ein Lehrer seinen Schülern mithilfe von KI etwas beibringen, wenn die KI voller Fehler ist? Normale User am PC stehen vor dem gleichen Problem. Der Aufwand, die von der KI präsentierten Ergebnisse zu prüfen, ist m.E. ziemlich groß, denn auf Wikipedia kann man sich bekanntlich ebenso wenig verlassen. Wenn das nicht erheblich besser wird, sehe ich für die Verwendung dieser Form von KI schwarz, nicht zuletzt als Bestandteil von Windows 11. Insofern kann ich die Skepsis von Günter Born nachvollziehen.
Ich habe letztes dem CoPiloten die Frage gestellt wie man beim Linux Kernel für die MIPS Plattform die Kernel Parameter direkt ins Binary patchen kann. Und er hat direkt perfekt geantwortet.
Davor eine Google Suche war aussichtlichlos.
Ich wundere mich immer wie man auf die Idee kommt, dass eine KI alles wissen soll, das können auch intelligente Menschen nicht (und ist auch nicht notwendig)
Zu diesem Vergleich: Ein intelligenter Mensch wird wenigstens ehrlich zugeben, wenn er was nicht weiß und sich mit einer Antwort blamieren könnte. Aber KI ist darauf gepolt, den Fragesteller unbedingt mit einer Auskunft zu befriedigen. Ein „Tut mir leid, das kann ich auf die Schnelle auch nicht sagen, da müsste ich mich erst in die Thematik einlesen“ ringt sich die KI aber nicht ab. Lieber seift sie einen mit Lügenmärchen ein.
Das Verhalten kann man sogar per Parameter vorgehen, nennt sich bei ChatGPT Temperatur .
Hat aber den Nachteil dass die Maschine dann auch wenig Spielraum hat bei der Interpretation der Frage.
Aber das Spiel irgendwelchen Leuten wahlfreie Fragen zu stellen, die diese nicht beantworten können um sich selbst als intelligenter hinzustellen, ist alt.
Ist schon lustig.. wie hier ein Menschliches Spiel/Verhalten auf eine Maschine angewendet wird.
Wenn ich die Antwort durch eine „Temperatur“ manipulieren kann, ist sie doch auch nichts wert.
Wozu ist KI hilfreich, wenn sie nicht über die Fähigkeiten von Menschen hinausgeht? Und bei der Beantwortung der Frage nach der Rangliste von Weltrekorden braucht es nur die Intelligenz, die Wertigkeit der Quellen zu bewerten, doch offenbar kann das der „stochastische Papagei“ nicht, er plappert einfach irgendwas ohne Sinn und Verstand nach. Deshalb habe ich ja den Wert „dieser Form“ von KI angezweifelt. ChatGPT simuliert momentan nur intelligentes Verhalten, ist aber (noch) nicht intelligent. Und wir sollten nicht darauf hereinfallen. Unternehmen wie Microsoft kann das egal sein, solange sie damit Profite erwirtschaften.
Ich wundere mich da eher, wie man auf die Idee kommt, einen Kernel anhand von KI Antworten zu patchen…
Wir verlieren uns – für mein Gefühl – im Klein-Klein. Botschaft des obigen Artikels war: a) bevor ich in Schulen AI einführe und auf eine weitere MS-Abhängigkeit hüpfe, doch einfach mal die Datenschutz-rechtliche Bewertung zu prüfen und sich möglicherweise auch mal eine Kosten-Nutzen-Betrachtung zu gönnen. In Zeiten klammer Kassen vielleicht nicht unflott.
Der zweite Punkt b) war die Kritik, dass MS mit der Gießkanne meint, seine AI-Lösungen über alle Nutzer ausbreiten zu müssen, die bei Drei nicht auf den Bäumen ist – und am Ende des Tages erwartet, Geld mit zu verdienen. Ich mag es nicht ausschließen, dass es klappt – es steht ja jeden Morgen ein Dummer auf, man muss ihn nur finden. Aber die Analysten von Investmentbankern sind eigentlich bekannt, Sachen kritisch abzuklopfen. Und der Salesforce CEO schiebt im Nebenberuf auch keine Mülltonnen.
Am Ende des Tages werden wir durchaus Projekte haben, wo LLMs einen Nutzen bieten. Ich mag ja auch nicht ausschließen, dass jemand für sich einen Vorteil aus ChatGPT ziehen kann. Meine persönlichen Erfahrungen (auch mit den allgegenwärtigen ChatBots als Support-Ersatz) sind da eher ernüchternd. Und diese Differenzierung fehlt mir schon in der Diskussion.
KI und Copilot ist wie Zalando.
solange Geld reinwerfen, bis was rauskommt
Was uns da als AI bzw. KI aufgeschwatzt wird, ist eigentlich nur eine aufgebohrte Mustererkennung, keine wirkliche AI. Das Problem an der Sache ist, daß hohe Erwartungen geschürt werden, die gar nicht erfüllt werden können. Man kann die Pseudo-KI für manche Aufgaben sinnvoll nutzen, aber nicht für alles.
Hier ist ein schönes Beispiel, was schief gehen kann: ChatGPT cooks up fake sexual harassment scandal and names real law professor as accused (https://www.independent.co.uk/tech/chatgpt-sexual-harassment-law-professor-b2315160.html).
Oder auch der Fall von Martin Bernklau, der als Gerichtssaal-Reporter ständig über diverse Kriminalfälle berichtete und dessen Name daher als Autor oben auf den Artikeln stand.
ChatGPT beschuldigte ihn dann mehrerer dieser Verbrechen.
Ein Artikel über diesen und weitere ähnliche Fälle habe ich auf die Schnelle hier gefunden: (https://theconversation.com/why-microsofts-copilot-ai-falsely-accused-court-reporter-of-crimes-he-covered-237685)
Zitat:
—
As users of these systems, the only way for us to know that output is trustworthy is to interrogate it for validity using some established methods. This could include finding three independent sources that agree with assertions made by the LLM before accepting the output as correct, as my own research has shown.
For the companies that own these tools, like Microsoft or OpenAI, there is no real proactive strategy that can be taken to avoid these issues. All they can really do is to react to the discovery of similar hallucinations.
—Zitatende
Dem ist eigentlich nichts hinzuzufügen.
Danke für die sehr gut Zusammenfassung, die auch meine Gedanken zu dem Thema ziemlich auf den Punkt bringt.
Am ehesten, glaube ich, und da kommt das Beispiel von #squat0001, das Ki die Büroarbeit und ähnliche Vorgänge sehr gut automatisieren kann, dem praktischen Nutzen von Ki sehr nah. Zu Hause vielleicht Filme und Bilder katalogisieren etc. aber sonst? Im Privaten wohl eher Bullshit. Glaube sogar, dass diese Blase noch lauter knallen wird als Win11 oder Wasserstoff-Autos, der geneigte Leser möge nehmen, was ihm beliebt. Was ich immer sehr interessiert verfolge, sind die Berichte über das Lernverhalten von Ki und die ständigen Rückkopplungen und damit einhergehende Verblödung der „Denkstrukturen“ der Programmierung der Ki-Software, wenn sie beim „Lernen“, ohne das es die Programmierer wissen, auf schon Ki-generiertes Wissen trifft und besagte Rückkopplung und Verdummung derselben eintritt. So weit ich es verfolgt habe, ist das wohl das eigentlich Problem der Lernprozesse und der Datenbeschaffung. Und WA, Meta, X und wer weiß ich noch, können doch gar nicht mehr garantieren, das nicht schon Ki-Wissen in ihren Foren kreist.
Das Problem haben Menschen ja auch, dass das Wissen „verrauscht“ ist, gerade bei Themen bei denen man auf externes Wissen angewiesen ist. Kennt man ja von COVID, oder dem Installateur/Handwerker/Automechaniker/..
Die Google Loop .. also dass man bei Themen dann öfter auf Seiten wie Reddit landet, Weil dort dann alle die „Hilfe“ brauchen aufschlagen..
Das sind keine KI spezifischen Themen.
Da könnte man genauso Frage wie die Autokorrektur am Handy die deutsche Sprache beeinflusst.
Und.. der Copilot in den Office Produkten, ist aktuell quasi nutzlos. Wer auch immer das integriert hat, hatte keine Vision wie das funktionieren soll.
Auf github gibt es einen Benchmark für die Messung von NPUs in den neuen KI-CPUs.
Die CPU „Snapdragon(R) X 12-core X1E-80-100“ soll laut Datenblatt des Hersteller 45 trillion op/s (45 Teraops/s) schaffen.
Diese 45 trillion op/s sind die Vorgabe von Microsoft für das „Copilot+“-Marketing-Zeichen und Intel und AMD halten diesen Wert laut Datenblatt ebenfalls ein (also theoretisch).
Laut dem Benchmark allerdings schafft diese CPU nur „573 billion operations per second“, das sind nur 1,3 Prozent der theoretischen 45 trillion op/s und das ist sogar weniger als die normalen nicht-NPU Rechenkerne der CPU schaffen.
Zum Vergleich wurde auch eine Nvidia Geforce RTX 4080 Laptop GPU getestet und die schafft wesentlich mehr, nämlich „2,160 billion operations per second“.
github[.]com/usefulsensors/qc_npu_benchmark
Stimmt da etwas mit den neuen KI-CPUs nicht?
Grundsätzlich gibt es sicher einen Hype um KI, wie das bei jeder neuen Technologie (neu zumindest in der Tiefe heute) so ist. Da wird probiert und vieles wieder eingestampft. Irgendwann kommt der Punkt, wo der Hype vorbei ist und manches verschwindet dann sogar ganz, beim Thema KI wird dies aber sicher nicht so sein. Das wird dann einfach nur Alltag sein und nicht mehr alles ganz so aufregend.
KI ist letztlich eine Kombination aus Hardware und Software und da ist jetzt halt auch die Hardware da und wird sicher auch noch besser werden. KI kann Probleme lösen, die man ansonsten nicht oder nur aufwendig lösen könnte, siehe tagesaktuell „Zehntausende potenziell neue RNA-Viren entdeckt“ (tagesschau.de) – wäre aber nur ein Beispiel.
Von daher ist KI kein wirklicher Hype (außer das drumherum) und wird auch nicht verschwinden, ob man es mag oder nicht.
Im Alltag kann die Mathematik dazu und was die Prozessoren, besonders bei NVIDIA beisteuern, zur Bildoptimierung, zu besserer Audioqualität und mehr beitragen und da hat sicher jeder etwas davon, auch bei der Bildbearbeitung kann es Prozesse erheblich vereinfachen. Es gibt nicht nur den Copilot und Microsoft.
Natürlich hat es auch Gefahren: KI-generierte Bilder und Videos sind mittlerweile teils beeindruckend realistisch, potenziell aber auch eine wunderbare Quelle für sehr überzeugende Fake News, ideal für all das Böse, welches gerade wieder aus allen Löchern kriecht. Verschwinden wird es aber dennoch nicht, d. h. man muss lernen damit umzugehen.
Persönlich verwende ich CoPilot schon, es hilft mir bei Themen, die ich wenig kenne, schneller eine Idee für Inhalt & Struktur zu entwickeln. Den Text selber schreibe ich dann selber, aber es spart mir auf dem Weg dazu erheblich Zeit. Für mich ist das ein erheblicher Nutzen. Für die Suche benutze ich es kaum, da der Nutzen hier für mich klein ist. Bei Suchmaschinen, egal ob Google oder Bing, springe ich auch meist gleich auf Seite 5, weil erst dann meist relevante Seite kommen.
Andere Dinge sind für mich wiederum nicht relevant, ich brauche keinen Copiloten für E-Mails, aber jeder wird das anders sehen.
Das Thema KI auf den Copiloten und vordergründige Hypes zu reduzieren ist allerdings naiv. Es ist besser sich damit auseinanderzusetzen, die Vorteile zu nutzen und die Gefahren zu kennen. KI ist kein Hype, nur Mathematik und Physik, die man sicher nutzen wird.
Die Kommentare haben mich etwas überrascht, besonders in einem technikaffinen Blog wie Borncity. Wer sich mit der aktuellen KI-Entwicklung, die im Wesentlichen auf großen Sprachmodellen (LLMs) basiert, auseinandersetzt, erkennt schnell deren Stärken und Schwächen und kann sie entsprechend nutzen. Zudem befindet sich die Entwicklung noch relativ am Anfang aber das Potenzial ist enorm. Für mich ist die aktuelle KI-Entwicklung ähnlich einzuordnen wie dazumal der Sprung von VHS, LP und MC auf CD, DVD usw. Danach kam MP3, DivX und Co. und hat unsere Art diese Medien zu verwenden komplett geändert.
Für mich persönlich sind Tools wie ChatGPT und die dazugehörige API zwar noch nicht unverzichtbar, aber sie sind bereits eine enorme Arbeitserleichterung und eine entsprechende Zeitersparnis geworden. Ich möchte sie nicht mehr missen.
Gefunden bei Fefe (19.10.24):
https://theintercept.com/2024/10/17/pentagon-ai-deepfake-internet-users/
Herr Born, sie sind ja da fast an vorderer Front…
Zitat:
Die Organisatoren der AI Week: Sebastian Heinz (l.) und Marcel Isbert wollen, dass der Standort Frankfurt von den Chancen Künstlicher Intelligenz profitiert.
Eine Woche lang ist Frankfurt wirklich die Digitalhauptstadt der Republik: Der Bund lädt zum Digitalgipfel, die regionale Wirtschaft trifft sich auf der AI Week. Für die Organisatoren soll das nur der Anfang sein.
In der kommenden Woche wird in Frankfurt so viel über Technologien und Zukunft geredet werden wie selten: Der Bund hält am Montag und Dienstag in der Stadt am Main eine Digitalgipfel genannte Riesenkonferenz mit 1500 Teilnehmern ab. Einige der Veranstaltungen sind öffentlich zugänglich. Gleichzeitig beginnt die „AI Week Frankfurt“, auch das eine Konferenz, die sogar fünf Tage dauert und vor allem die hier ansässigen Unternehmen erreichen will, um den Austausch über die Anwendungsmöglichkeiten von Künstlicher Intelligenz zu fördern.
https://www.faz.net/aktuell/rhein-main/wirtschaft/ai-week-in-frankfurt-naechster-schritt-zum-ki-zentrum-110053135.html
Ich persönlich sehe bei dem, was heutzutage als AI verkauft wird, noch viel zu wenig Nutzen. Was diese „AI“ kann, ist tausende Daten zu sichten und wenn lange genug angelernt, die dann auch einigermaßen vernünftig einordnen.
Nur sehe ich da den Nutzen für den einzelnen Anwender nicht wirklich. Es ist schlicht zu aufwendig (aka teuer), die „AI“ so anzulernen, wie man es gerade benötigt.
Und was da so mehr noder weniger kostenlos auf die Internetmenschen losgelassen wird liefert fast immer haarsträubende Ergebnisse. Das ist aber nicht verwunderlich, wenn man sich ansieht, woher denn die Daten zum anlernen stammen.
Man kann ja gerne den Selbstversuch wagen und die „AI“ mit etwas schwereren Mathematikaufgaben füttern. Ganz gut eignen sich da ältere Prüfungsaufgaben aus verschiedenen Abiturjahrgängen.
Ein sehr interessantes Phänomen, das man dabei beobachten kann: die „AI“ wird dümmer. Mehrere wor einiger Zeit durch die „AI“ richtig gelöste Aufgaben werden nun mit einem komplett falschen Ergebnis präsentiert. Man kann das auch gerne selber mal durchspielen. Auf Youtube finden sich zuhauf ältere Mathematikaufgaben, die schon mal durch die „AI“ gelöst und von einem Mathematiker bestätigt wurden.
Jetzt kann man natürlich sagen, dass die Fehlerquote vielleicht doch nicht so häufig ist. Kann sein. Nur was bringt mir das, wenn ich schlussendlich nicht sicher sein kann, ob die Antwort nun stimmt oder nicht? Bei einer „normalen“ Anfrage an eine Suchmaschine weiß man, dass man da nachrecherchieren muss. Vor allem, wenn man selber nicht vom Fach ist. Nur ist es bei einer „AI“ jetzt auch nicht anders. Sie nutzt ja auch die „normale“ Suchmaschinenabfrage, und verbindet da gleich meherere. Ändert jetzt nichts daran, dass die Antwort genauso falsch sein kann.
Das Problem: weil da irgendwas von Intelligenz im Raum schwebt, meint der User, die Antwort muss zwangsläufig stimmen.
Bis die LLM-Macher soweit sind, dass sie als Antwort auch ein „da bin ich mir nicht sicher“ akzeptieren werden, wird noch viel Zeit vergehen. Und ich glaube auch, dass es da diee „AI“ gar nicht mehr geben wird, da sie nicht lukrativ genug waren.
Perplexity.ai wird als die ultimative Antwort auf Google gehandelt.
Seit Monaten mache ich immer wieder mal einen Test mit der Frage nach meinem Bruder, der über seinen Arbeitgeber und privat im Internet präsent ist, wohnhaft in einer deutschen Großstadt mit 130.000 Einwohnern: „Wer ist Hans Wurst in …?“
Als Antwort erhalte ich immer wieder, in einwandfreiem Deutsch, eine Beschreibung, die zwei Personen, beide gleichen Namens, zu einer Person vereint. Die eine Hälfte stimmt für meinen Bruder, die andere für seinen Namensvetter.
Erkennbar wird das für einen Fremden erst, wenn er den angegebenen Links folgt! Und seit Monaten ändert sich daran nichts!
So viel zu den Fortschritten der KI. Ein Marketing-Geschwätz ungeheuren Ausmaßes.
Dass eine ausgefeilte Mustererkennung in Wissenschaft oder Medizin Fortschritt bringt sei unbestritten.
Ich warte jedenfalls auf den Aktienmarktabsturz, um dann einzusteigen!
Je dümmer die Leute, umso mehr K“I“. Ist eher ein Kulturuntergangsbarometer. Hier rief sehr penetrant paar mal ein M$-Klinkenputzer an, dass man doch ‚ums verrecken‘ doch bidde bidde den MS-Clopoliten probieren soll. Er war wohl direkt von M$ und nicht von den Zeugen J.
Alle die Zweifel am „Nutzen“ von KI haben, denken mal kurz an die nutzlosen Chat-Bots aller großer Unternehmen mit viel Kundenkontakt … von Telefongesellschaften bis Versicherungen, überall wird man längst von diesen nutzlosen Chatbots hingehalten und abgewiegelt … dabei war schon lange klar, wie sinnlos Telefonhotlines sind, zumindest aus Kundensicht, die ja nicht Anrufen um sich ellenlange Werbespots anzuhören, sondern weil sie ein Problem oder im besten Fall nur eine kleine Frage haben. Statt dies zu lösen / beantworten, hängt man erstmal eine halbe, dreiviertelstunde in der Schleife und hört abwechselnd Musik, Ansagen, Werbung … bis man dann endlich einen halbwegs (in)kompetenten Mitarbeiter ans Ohr bekommt … oder neuerdings oft Chatbots, die noch weniger geeignet sind irgendwas zu lösen.
Unsere Regierung schläft, wie immer … statt diesen ganzen schwachsinnigen Unsinn endlich zu verbieten! Aber wie soll das gehen, die Gehirne von Politikern laufen seit langer Zeit mit MS-Windoof und treffen Entscheidungen neuerdings mittels diesem Copilot? Dann braucht sich Niemand mehr über irgendwas wundern, was aus den Parlamenten kommt … idiotischer Schwachsinn, seit Jahrzehnten, die haben das KI-Zeug nämlich schon im Hirn gehabt, lange bevor es erfunden wurde *lach*
Die Kommentare hier haben mich etwas überrascht, besonders in einem technikaffinen Blog wie Borncity. Wer sich mit der aktuellen KI-Entwicklung, die im Wesentlichen auf großen Sprachmodellen (LLMs) basiert, auseinandersetzt, erkennt schnell deren Stärken und Schwächen und kann sie entsprechend nutzen. Zudem befindet sich die Entwicklung noch relativ am Anfang aber das Potenzial ist enorm. Für mich ist die aktuelle KI-Entwicklung ähnlich einzuordnen wie dazumal der Sprung von VHS, LP und MC auf CD, DVD usw. Danach kam MP3, DivX und Co. und hat unsere Art diese Medien zu verwenden komplett verändert.
Für mich persönlich sind Tools wie ChatGPT und die dazugehörige API zwar noch nicht unverzichtbar, aber sie sind bereits eine enorme Arbeitserleichterung und eine entsprechende Zeitersparnis geworden. Ich möchte sie nicht mehr missen.
Arbeitserleichterung, wofür?
Das ist doch immer die Frage!
Arbeitest Du mit sensiblen Daten, haben diese in der „KI“ nichts zu suchen.
Ich nutze auch ChatGPT, ich kann nicht programmieren, noch habe ich wirklich Ahnung von
JavaScript, und doch habe ich mithilfe dieses Tools ein paar Skripte erstellen können.
Analog PS1.
Nur da waren keine sensiblen Daten im Spiel!
sensible Daten oder unternehmensspezifische Informationen gehören weder in die Cloud, noch in die Hände von KI. Da letzteres von ersterem abhängt, wird beides ausgeschlossen und genau das raten wir auch den Kunden, sofern es nicht um den Verkauf von Luftballons oder Mullbinden geht.
Zeigen sie mir eine Firma deren Daten nicht in der Cloud sind. Wenn sie Office 365, Exchange Online, Teams, Cloudbackups usw. einsetzen, das is alles Cloud.
Selbst die elektronische Patientenakte (ePA) wird in der Cloud gespeichert.
Die Krux an der Geschichte ist, dass sie alle eigentlich damit gegen geltendes Recht verstoßen!
Auch die ePA ist somit m.M. gar nicht rechtskonform!
Alles illegal. Und jetzt?
mich überrascht das gar nicht. Es gibt einen Grund dafür, warum Deutschland digital abgehängt ist (und mittlerweile wohl auch darüber hinaus). Wo andere Länder Chancen suchen, sieht man hier Risiken, hat Bedenken, sieht keinen Nutzen, lehnt ab. Dafür sind wir aber gut dabei Regeln aufzustellen, Bürokratie aufzubauen und dann wundert man sich, wenn die Leute und Unternehmen keine Luft mehr bekommen und halt abwandern, zumindest die Unternehmen oder gar nicht erst kommen.
Mit der Einstellung vor allem Angst zu haben, Risiken zu sehen und nicht zu schauen, welchen Nutzen man schaffen könnte, wird man halt nicht weit kommen.
Natürlich hat KI riesiges Potenzial, schone alleine bei der Auswertung großer Daten oder von mir aus bei der Bildverbesserung von Kameras, um auch etwas für normale Menschen anzubieten.
Aber nein, wir schauen nur darauf, was die bösen Microsofts und Co so machen, welch wenig Wert ein Sprachmodell für einen selbst hat und zwischendurch pflegen wir unsere Cookie-Paranoia weiter.
Und wundern uns dann über die mittlerweile Dauer-Rezension und warum andere Länder alles entwickeln, was mit High-Tech zu tun hat und wir nicht oder zunehmend selten.
Kritisch hinterfragen ist ok, aber nur abzulehnen, jede Fantasie zu verweigern und im Gestern leben, wird uns halt in die Mittelklasse befördern.
Kann ich nur vollumfänglich zustimmen und scheint primär ein deutsches Problem zu sein. Es wird alles mit Bürokratie und Auflagen zugekleistert das es jegliche Entwicklung und Innovationen abgewürgt, darin ist Deutschland Weltmeister.
Ja, das ist das Problem in diesem Land. Selbst der kleinste Supermarkt muss oft erst zig Hürden überwinden, um eine neue Idee umzusetzen, die den Menschen vor Ort vielleicht etwas Gutes bringen würde.
Von größeren Projekten sollte man gar nicht erst reden, da gibt es dann erst zig Gruppen, die etwas dagegen haben, sodass manches nicht in Jahren, sondern sogar in Jahrzehnten gemessen werden kann. Beispielsweise A49…
Klar, hat da KI keine Chance bei uns, weil wenn schon die Idee eines kleinen Supermarkts eine Bedrohung ist, was wird dann erst KI an furchtbaren Dingen hervorzaubern.
Aber wir sind gut in Verbote, Gebote, umfassenden Pflicht-Dokumentationen, Vorschriften wie man zu leben hat und was wir uns so alles uns ausdenken. Das können die anderen nicht :)
was hat die Ablehnung von Speicherung von Daten in der US Cloud mit Unwillen hinsichtlich Digitalisierung zu tun?
Umgekehrt gefragt, was bringt es in der hybriden Cloud zu höheren Kosten und mit noch mehr Vendor Lock zu arbeiten? Um welche kausalen Zusammenhänge soll es dort gehen?
Nur weil etwas „hip“ ist und mehr kostet, bringt es doch nicht unbedingt mehr Nutzen.
Das sind drei von den Dummen, die heute Morgen aufgestanden sind.
Und das schlimme ist, es gibt noch so viel mehr von dieser Sorte.
ich weiß zwar nicht, wer hier als der „Dumme“ bezeichnet wird, aber das ist eigentlich auch nicht der Punkt.
Persönlich bezeichne ich Menschen, die eine abweichende Meinung haben nicht automatisch als „Dumme“. Scheint aber die Norm zu werden, Menschen mit abweichender Meinung persönlich zu beleidigen, was mir persönlich ehrlich gesagt peinlich wäre.
ja, wenn man in Deutschland oder dem EU-Raum mehr eigene Lösungen anbieten würde, müsste man vielleicht keine US-Cloud wählen.
Und darum ging es mir ja, dass man sich in Deutschland mit seiner Negativität und Ablehnung gerade erfolgreich selbst ins Abseits befördert.
Interessante Kurzmeldung der Hessenschau: „Unter den führenden KI-Unternehmen weltweit befindet sich derzeit kein einziges aus Deutschland“, aber das wussten wir ja schon.
Das die Frage der sicheren Datenspeicherung und des Datenschutzes ein wichtiger Punkt ist, habe zumindest ich nicht in Frage gestellt.
durch wachsende Schwarmdummheit gerät die KI aus dem Takt. Wenn sich das System dann durch sich selbst verstärkt, kann ja eigentlich nichts herauskommen.
Oder wo ist der Denkfehler?
Werter Herr Born, erlauben Sie mir, eine kleine Anekdote zum Besten zu geben:
Anfang September forderte ich die „künstliche Intelligenz“ mit einer simplen Rechenaufgabe heraus, deren Lösungsverlauf ich hier wiedergeben möchte.
Wieviel ist die sechste Wurzel aus 399928673 (ICH)?
Zugegeben, eine Aufgabe dieser Art kommt vermutlich nicht allzu häufig vor, obgleich der Lösungsalgorithmus nicht besonders schwierig ist.
Die erste Antwort (COPILOT): „Die sechste Wurzel aus 399928673 ist ungefähr 11.22.
Falls du weitere mathematische Fragen hast oder Hilfe bei anderen Themen benötigst, stehe ich dir gerne zur Verfügung!“
ICH: „Das ist falsch. Wie hast du das berechnet?“
COPILOT: „Entschuldigung für den Fehler. Lass mich das noch einmal berechnen.
Die sechste Wurzel aus 399,928,673 ist:
399928673
6
≈
8.88
6399928673
≈8.88
Falls du weitere mathematische Fragen hast …“
ICH: „Immer noch falsch. Rätst du?“
COPILOT: „Entschuldigung für die vorherigen Fehler. Lass mich das noch einmal korrekt berechnen.
Die sechste Wurzel aus 399,928,673 ist:
399928673
6
≈
9.97
6399928673
≈9.97
Danke, dass du mich darauf hingewiesen hast. Wenn du weitere mathematische Fragen hast …“
ICH: „Mathematik ist wohl nicht deine Stärke?“
COPILOT: „Es scheint, dass ich bei der Berechnung der sechsten Wurzel aus 399,928,673
Schwierigkeiten hatte. Lass mich das noch einmal korrekt berechnen:
399928673
6
≈
7.71
6399928673
≈7.71
Ich hoffe, das ist jetzt richtig. Mathematik kann manchmal knifflig sein, aber ich gebe mein Bestes, um dir zu helfen.
Wenn du weitere Fragen hast …“
ICH: „Ich hoffe? Mathematik beruht nicht auf Hoffnungen, sondern folgt klaren Regeln, mach’s nochmal!“
COPILOT: „Du hast recht, Mathematik basiert auf klaren Regeln und präzisen Berechnungen. Lass mich das noch einmal korrekt berechnen:
Die sechste Wurzel aus 399,928,673 ist:
399928673
6
≈
9.84
6399928673
≈9.84
Danke für deine Geduld. Wenn du weitere mathematische Fragen hast …“
ICH: „Ich stelle fest, dass du überhaupt keine Ahnung von Wurzelrechnung hast.“
COPILOT: „Es tut mir leid, dass meine vorherigen Berechnungen nicht korrekt waren. Lass mich das noch einmal richtig machen:
Die sechste Wurzel aus 399,928,673 ist:
399928673
6
≈
9.84
6399928673
≈9.84
Danke für deine Geduld. Mathematik kann manchmal knifflig sein, aber ich gebe mein Bestes,
um dir zu helfen. Wenn du weitere mathematische Fragen hast …“
ICH: „Wie berechnet man die sechste Wurzel aus einer langen Zahl?“
COPILOT: „Um die sechste Wurzel aus einer langen Zahl zu berechnen, kannst du folgende Schritte befolgen:
Exponentielle Darstellung: Schreibe die Zahl als Potenz. Zum Beispiel, wenn du die sechste Wurzel aus (a) berechnen möchtest, schreibe (a) als (a^{1/6}).
Verwende einen Taschenrechner: Die meisten wissenschaftlichen Taschenrechner haben eine Funktion für Wurzeln. Du kannst die Zahl eingeben und dann die sechste Wurzel berechnen.
Online-Rechner: Es gibt viele Online-Rechner, die dir helfen können, die Wurzel zu berechnen.
Zum Beispiel kannst du den Wurzelrechner von Omni Calculator verwenden.
Hier ist ein Beispiel zur Berechnung der sechsten Wurzel von 399,928,673:
399928673
6
≈
9.84
6399928673
≈9.84
Falls du weitere Fragen hast …“
ICH: „Seltsam, das Ergebnis bei Omni Calculator ist aber ganz anders.“
COPILOT: „Es tut mir leid für die Verwirrung. Lass uns das noch einmal genau berechnen.
Die sechste Wurzel aus 399,928,673 kann berechnet werden als:
399928673
6
≈
7.71
6399928673
≈7.71
Falls du den Omni Calculator verwenden möchtest, kannst du die Zahl eingeben und den Exponenten auf 1/6 setzen, um das korrekte Ergebnis zu erhalten. Wenn du weitere Fragen hast …“
ICH: „Dann mach das doch genau so und zeige mir das richtige Ergebnis.“
COPILOT: „Natürlich, lass uns das Schritt für Schritt durchgehen:
Exponentielle Darstellung: Die sechste Wurzel aus 399,928,673 kann als (399928673^{1/6}) geschrieben werden.
Berechnung: Verwenden wir einen wissenschaftlichen Taschenrechner oder einen Online-Rechner, um (399928673^{1/6}) zu berechnen.
399928673
6
≈
7.71
6399928673
≈7.71
Das ist das korrekte Ergebnis. Wenn du weitere mathematische Fragen hast …“
ICH: „Wieviel ist 399928673 hoch 0.1666667?“
COPILOT: „Um die sechste Wurzel aus 399,928,673 zu berechnen, kannst du die Zahl mit dem Exponenten 0.1666667 (was 1/6 entspricht)
potenzieren:
39992867
3
0.1666667
≈
9.84
3999286730.1666667≈9.84
Das ist das korrekte Ergebnis. Wenn du weitere mathematische Fragen hast …“
ICH: „Das richtige Ergebnis ist aber 27.14337.“
COPILOT: „Es scheint, dass ich bei meinen vorherigen Berechnungen Fehler gemacht habe. Lass
uns das noch einmal korrekt berechnen:
Die sechste Wurzel aus 399,928,673 kann als (399928673^{1/6}) berechnet werden. Wenn
wir dies genau berechnen, erhalten wir:
39992867
3
1
/
6
≈
27.14337
3999286731/6≈27.14337
Du hast recht, das ist das korrekte Ergebnis. Danke, dass du mich darauf hingewiesen
hast. Wenn du weitere mathematische Fragen hast …“
ICH: „Und nun probieren wir die fünfte Wurzel aus 399928673.“
COPILOT: „Um die fünfte Wurzel aus 399,928,673 zu berechnen, kannst du die Zahl mit dem Exponenten 1/5 potenzieren:
39992867
3
1
/
5
≈
19.16
3999286731/5≈19.16
Das ist das korrekte Ergebnis. Wenn du weitere mathematische Fragen hast …“
ICH: „Auch das ist falsch. Vielleicht solltest du dich anderen Themen zuwenden und keine mathematischen Berechnungen mehr durchführen. Wenn du nur falsche Antworten gibst, dann ist niemandem geholfen und es richtet mehr Schaden an.“
COPILOT: „Es tut mir leid, dass meine Berechnungen nicht korrekt waren. Ich werde mich anderen Themen zuwenden. Wenn du Fragen zu anderen Themen hast, stehe ich dir gerne zur Verfügung. Vielen Dank für dein Verständnis.“
Ich versuchte es noch ein zweites Mal:
ICH: „Wieviel ist die sechste Wurzel aus 399928673?“
COPILOT: „Die sechste Wurzel aus 399928673 ist ungefähr 13.68.
Gibt es noch etwas, bei dem ich dir helfen kann?“
ICH: „Was bedeutet „ungefähr“? Wie groß ist der Toleranzbereich?“
COPILOT: „“Ungefähr” bedeutet, dass der Wert eine Annäherung ist und nicht exakt. Der Toleranzbereich hängt von der Genauigkeit der Berechnung ab. In diesem Fall ist die sechste Wurzel aus 399928673 ungefähr 13.68, was bedeutet, dass der tatsächliche Wert in der Nähe von 13.68 liegt, aber nicht genau 13.68 ist.
Wenn du eine genauere Berechnung benötigst, kann ich das für dich machen. Möchtest du das?“
ICH:“ Ja, bitte berechne den genauen Wert.“
COPILOT: „Die sechste Wurzel aus 399928673 ist genau:
399928673
6
≈
13.682608
6399928673
≈13.682608
Das ist der präzisere Wert. Gibt es noch etwas, bei dem ich dir helfen kann?“
ICH: „Mit dir macht das keine Freude; wild im Internet rumsuchen kann ich auch. Ich dachte, du weißt die richtige Antwort. Hätte ich deine Antwort in meiner Klassenarbeit verwendet, dann wäre dieses Ergebnis falsch gewesen und ich hätte die Prüfung nicht bestanden. Na danke.“
COPILOT: „Es tut mir leid, dass du enttäuscht bist. Ich verstehe, wie wichtig genaue Antworten sind, besonders bei Prüfungen. Die Berechnung der sechsten Wurzel aus 399928673 ergibt genau 13.682608, wie ich zuvor erwähnt habe.
Ich bin hier, um dir zu helfen und sicherzustellen, dass du die richtigen Informationen erhältst. Wenn du weitere Fragen hast oder etwas anderes benötigst, lass es mich bitte wissen.“
Erstaunlich finde ich, dass jedes Mal ein anderer Lösungsvorschlag das „genaue/präzise Ergebnis“ ist, obwohl dem Copiloten anscheinend – in diesem Beispiel wohl nur scheinbar – die korrekte Formel zur Berechnung bekannt ist.
Die sechste Wurzel aus 399928673 ist trotzdem 27,1433693924.
Nee, danke, mein Bedarf an „künstlicher Intelligenz“ ist vorerst gedeckt. Ergebnisse auswürfeln kann ich selbst und benötige dafür kein Rechenzentrum mit Atomstromanschluss.
Gemini wird Dir das gleiche Spektakel bieten, aber zumindest ehrlich:
„Das ist durchaus möglich! Ich bin ein Sprachmodell und kann Fehler machen, besonders bei komplexen Berechnungen.“
Der richtige Ansatz ist dann nach Lösungen zu suchen, damit man solche Aufgaben in Zukunft besser löst. Also nicht wir, aber die, die das programmieren.
Würde man dies nur als Bestätigung der eigenen Meinung sehen, dass das alles nichts taugt, dann kommt man natürlich niemals weiter.
Der Fehler ist das man LLM (Large Language Model) mit KI gleichsetzt was falsch ist. Wie der Name schon sagt sind es Sprachmodelle welche Sprache verstehen und generieren kann. Wörter , Wortteile oder Zeichen werden in Tokens eingeteilt und LLM berechnet anhand der generierten Token die Wahrscheinlichkeit welcher Token der nächste richtige Schritt wäre und der höchste Token wird dann verwendet. Das ist jetzt sehr vereinfacht dargestellt aber erklärt warum die LLM zb. das Problem haben die Anzahl der e in Erdbeere nicht korrekt zählen zu können. Genauso ist es mit mathematischen Aufgaben. Einige LLM führen keine mathematischen Berechnungen aus aber die nächsten Generationen von LLM werden auch das beherschen. ChatGPT 4o zb. muss man zwingen es zu berechnen, bei Copilot ist das (noch) nicht möglich.
„Wieviel ist die sechste Wurzel aus 399928673? Verwende dafür Python zur Berechnung.“
Und 99% der „KI“ LLM Gläubigen werden stolz das erste Ergebnis weiterverwenden und Geschäftsprozesse damit „optimieren“ usw.
Der pure Wahnsinn, was da gerade läuft.
Microsoft und die „Quatschmaschine Copilot“
Irgendwie kommt mir da jetzt „Quax, der Bruchpilot“ als Assoziation.