Alter Spruch: „Es gibt badische und unsymbadische Leute“, der mir beim neuesten Move Microsofts durch den Kopf geschossen ist. Redmond bietet Copilot Vision als Preview an – und preist das Ding in höchsten Tönen als „neuer Weg zum Surfen“ an. Dabei ist es nichts anderes als eine Online-Wanze, die beobachtet, was naive Nutzer online tun, das ganze auswerte und dann ein paar Krümel in Form von „Vorschlägen“ für Online-Aktivitäten „belohnen“.
Ich gestehe, das Thema wäre an mir vorbei gegangen, wenn ich gestern nicht auf den Tweet von Golem gestoßen wäre, der auf den Artikel Microsofts KI liest geöffnete Webseiten mit verweist.
Copilot Vision – wir lesen mit
Der Sachverhalt ist kein Geheimnis und wird von Microsoft im Artikel Copilot Vision now in preview – a new way to browse offen gelegt. Microsoft erklärt, wie man mit Begeisterung beobachtet, wie Verbraucher sich die AI-Lösung Copilot zu eigen machen. Es folgt ein Loblied, wie beglückt die Menschheit von Microsofts Ergüssen doch ist.
Alles mit dem großen Ziel, dass Microsoft weiß, was seine Kunden glücklich macht. Und so lässt man Copilot Vision als Preview auf die Leute los. Mit Erlaubnis des Benutzers, der Copilot Vision aktiviert, sieht Copilot die Seite, auf der sich der Nutzer gerade befindet, und liest mit. Ziel ist es, den gesamten Kontext dessen, was Nutzer online tun, zu verstehen.
Die hehre Botschaft: „Das Surfen muss nicht länger ein einsames Erlebnis sein, bei dem nur Sie und Ihre Tabs im Vordergrund stehen. Sie können gemeinsam [mit dem Copilot] über das Problem sprechen, das Sie gerade haben.“
Der Copilot kann aus dem Gelernten dann neue Vorschläge machen, wie Leute ihre Arbeit oder das Leben noch besser machen können. Aufgeführt wird das Beispiel, dass man mit Hilfe von Vision einen unterhaltsamen Tag in einem Museum planen könne. Copilot soll alle Informationen zeigen, die Leute vor dem Besuch wissen müssen.
Oder Vision könnte bei den Weihnachtseinkäufen helfen, indem es Surfer darauf hinweist, welche Produkte, die auf einer Seite angezeigt werden, den Bedürfnissen und Vorlieben der jeweiligen Person entsprechen. Noch krasser: Vision könnte helfen, ein neues Spiel, z. B. Geoguessr, zu lernen. Ich hatte Tränen der Rührung in den Augen, als ich von dieser Innovation las. Auch wenn ich noch nicht so richtig weiß, was ich mit dem von dem schwedischen IT-Berater Anton Wallén entwickelten Online Geo-Spiel halten soll. Dass Albanien nicht die Hauptstadt von Moskau ist, weiß ich auch so.
Die geplante technische Umsetzung
Microsoft will Copilot Vision als Vorschau für eine begrenzte Anzahl von Pro-Abonnenten in den Vereinigten Staaten über Copilot Labs einführen. Copilot Vision ist als KI-Funktion nur in Microsoft Edge verfügbar, und wird zunächst nur auf einer ausgewählten Gruppe von Websites funktionieren.
Copilot Vision seit vollständig opt-in, heißt es, dass heißt, Nutzer entscheiden, wann die Überwachung der Online-Aktivitäten eingeschaltet wird. Wird eine Sitzung mit Vision beendet, werden alle Daten über Äußerungen des Benutzers und den Kontext, den diese mit Copilot teilen, gelöscht. Jedes Mal, wenn Leute Vision verwenden, werden deren Daten in Übereinstimmung mit der Microsoft-Datenschutzerklärung behandelt und geschützt. Nur die Antworten von Copilot werden protokolliert, um Microsofts Sicherheitssysteme zu verbessern.
Was haltet ihr von dieser Funktion? Cooles Geschiss oder dystopische Aussichten, die dieses Microsoft den Leuten schmackhaft machen will?
Toll. Einfach toll! :-|
muss ich nicht haben..ms treibt einen zu linux..win11 laeuft auf einer unproduktiven testmaschine (24h2..i.7.gen) um den wahnsinn ab und an zu verfolgen..
Eine neue Wanze, die die Leute bereitwillig aktivieren werden.
Hardwarewanzen (Alexa und Co.) haben die sich ja schon freiwillig ins Wohnzimmer gestellt und finden es toll.
Wie sagte doch Einstein:
Zwei Dinge sind unendlich, das Universum und die menschliche Dummheit, aber bei dem Universum bin ich mir noch nicht ganz sicher.
Dem kann ich nur voll Zustimmen! Bei dem, was die Nutzer so alles freiwillig(!) ins Internet stellen und nutzen, ist der ganze gesetzliche Regelkram eigentlich überflüssig. Die Dummen werden es nie begreifen und die Klügeren werden sich selbst zu schützen wissen…
Und wer sagt uns denn, ob MS nicht trotzdem alles protokolliert (obwohl angeblich abgeschaltet)?
Ist aber die typisch kurzfristige Denke „ich bin schlau und schütze mich, der Rest ist doof, was braucht es gesetzlichen Regelkram“, die schlicht nicht funktioniert! Was machst Du denn, wenn dein Arbeitsamt, deine Versicherung, dein Arzt und was weiß ich bei der IT beschließt „wir machen das mal“ und deine Daten munter durch dieses Internet mäandern? Es braucht kluge gesetzliche Regelungen, die auch kontrolliert und durchgesetzt werden, um dem Ganzen Leitplanken einzuziehen. Einfach mal drüber nachdenken.
Ok, ich hätte das wohl als „sarkastisch“ markieren sollen – natürlich hast Du recht!!! Und wenn ich meine Daten online irgendwo eingeben muss, dann hoffe ich, dass sich die Datenhalter so absichern, dass meine Daten eben nicht im Internet mäandern. Aber da auf gesunden Menschenverstand zu hoffen, ist wohl eine Illusion…
**************************
Und wer sagt uns denn, ob MS nicht trotzdem alles protokolliert (obwohl angeblich abgeschaltet)?
**************************
Niemand, sie haben ja bis heute die Datenübertragung nicht einsehbar und offen gelegt… keiner weis was da wirklich übertragen wird und ob das wirklich nirgends gespeichert wird kann dir auch niemand eidesstaatlich versichern. Man muss es eben glauben!
Oder eben selbst aktiv verhindern! Noch geht das ja. Halt nicht für Klaus Dünnpfiff und Lisa Dumpfbacke,
Doch, Klaus Dünnpfiff und Lisa Dumpfbacke sind mittlerweile schlauer als Michael MS Volldepp, weil nicht völlig verblendet und lassen sich einfach ein Linux installieren. Damit kommen sie gut und sorglos aus und verlachen die Idioten aus dem MS Universum mit ihrem Pseudowissen.
Und die Smartphone Wanze wird eifrig überall hin mitgeschleppt und brav mit den persönlichsten Daten gefüttert…
Die Smartphonewanze ist in ihrer Tasche dass sie nix sieht und nix hört.
Mich erschüttert weniger, dass Microsoft so etwas entwickelt und anbietet (denn genau das erwartet man ja von ihnen) als dass die Zeit inzwischen reif für sowas zu sein scheint, durch Smartphones, Alexa, IoT-Gedöns und Cloud sind die Leute inzwischen derart [passendes Wort nach Wahl einsetzen], dass es vermutlich tatsächlich einen Markt dafür gibt, also Menschen, die für Bequemlichkeit auch noch den letzten Zipfel Privatsphäre zu Markte tragen.
Ich habe schon lange aufgehört, mit „Normalos“ über solche Themen zu reden. Alle komplett abgerichtet und himmelschreiend dumm.
tja vielleicht sollten unsere Politiker mal ein 4 Wochen Schulungskurs bei MS nehmen…
die versuchen schließlich seit Jahren die Totale Überwachung (unabhänige Vorratsdatenspeicherung (ganz aktuell) mehr Befugnisse für Polizei und Geheimdienste, Bürger ID; ePA usw.) durchzuboxen und scheitern bisher bei den Grichten…
MS hat die totale Überwacung und die Leute jubeln!
Ich heisse das nicht gut und kastriere mein OS dahingehend oder verweigere mich da total (win11) , aber ich ziehe den Hut vor der Marketingabteilung von MS: die habens drauf!
So lange Microsofts sogenannte KI Sätze generiert wie diesen (Zitat aus dem Artikel): „Das Surfen muss nicht länger ein einsames Erlebnis sein, bei dem nur Sie und Ihre Tabs im Vordergrund stehen. Sie können gemeinsam [mit dem Copilot] über das Problem sprechen, das Sie gerade haben“, den man erst einmal ins Englische rückübersetzen muss, um seinen Sinn zu erraten, erübrigt sich doch jegliche Diskussion zum Thema „Copilot“.
Sowas funktioniert eben bei Leuten, die selbständiges Denken und Zusammenhänge herstellen runter geschraubt haben. Die Unwahrheit wird eben bei dauernder Wiederholung, bei schlecht informierten oder mit der Materie nicht Vertrauten, irgendwann wahr und wird dann auch nicht mehr hinterfragt oder überprüft, haben ja schließlich Andere schon gemacht und das Internetz lügt doch nicht, ähm, da war doch noch was…
„selbständiges Denken und Zusammenhänge herstellen“ ist schpn sehr nahe am Thema „Verschwörungstheorien“, das hat man den Menschen erfolgreich nahegebracht, mehr oder auch weniger subtil.
Und da wundert man sich dass in Deutschland nix mehr läuft. Früher mal das Land der Dichter und Denker. Heut ist man eher dicht und dichter und lässt denken. Aber das hat früher schon mit Kirche und Staat geklappt „Halt du sie dumm ich mach sie arm.“ Dazwischen gabs mal die Aufklärung die wurde aber scheinbar erfolgreich zurückgedreht.
Das läuft dann wohl wie die Filterblase von Youtube, die einem die allerübelsten Videos vorschlägt, wo man sich fragt, wie da ein Zusammenhang zum angeschauten Clip hergestellt wird. Schaust du einen Wetterkanal? Aha, dem empfehlen wir rechte Polemik. Suchst du eine harmlose Spielfilmkomödie aus den 1930ern? Prima, dann gleich noch den braunen Politranz aus der Zeit hinterdrein.
Verantwortung oder gar moralische Werte sind bei KI nicht vorgesehen, und was die Intelligenz betrifft, reicht eine Frage an Copilot, um den als Dummschätzer zu entlarven. (Neulich fragte ich Copilot, wie groß die „system-reservierte“ Partition für Windows sein müsse – das, was sich unlängst bei Sicherheitsupdates als zu klein herausgestellt hat. Antwort: „100 MB für Win7, 500 MB für Win10, 64 GB für Win 11, aber besser 100 GB oder mehr.“ Wer das hilfreich findet, wählt auch Trump.)
Muss dann wohl an deiner ureigenen Blase liegen das du sowas vorgeschlagen kriegst… ich kriege da weder rechtes Zeugs noch hab ich bisher irgendwie Kinderporn zu sehen bekommen oder IS & Co. Anwerbung.
Oder liegt es vielleicht daran das ich da nicht angemeldet bin alles kastriere und nach Beendigung alle „gesamelten Daten“ automatisch löschen lasse?
Lese immer nur davon das das Internet nur aus diesem Shice bestehen soll… komisch zu Gesicht hab ich das noch nie bekommen ausser man sucht explicit danach und dann auch eher im Darknet anstatt im Internet…
Was muss ich jetzt daraus schließen? Das man natürlich im Internet immer gleich in die Rechte Ecke gestellt wird wenn man andere Meinungen vertritt… ja das ist seit ein paar Jahren recht auffällig! Hat halt nur nicht wirklich was mit rechts zu tun.
War aber auch lang lang bevor es das Netz überhaupt gab so das man das mitkriegte aus dem Umkreis in dem man sich bewegt.
Und als mündiger denkender Bürger war das noch nie ein Problem den Müll auszusortieren, weder im Reallife noch im Internet.
Wenn du da also Probleme hast lässt das tief blicken und das in mehreren Ebenen!
Naja, aus was das Internet besteht, ist vielleicht Geschmackssache. Ich meine z.B. die Filmchen im BLÖD-Stil mit den schwarz-weiß-roten Textbannern und düpierten Politikerinnengesichtern. Mag sein, dass du die ganz lehrreich findest – deinem Tonfall nach zu schließen. Mich widern die so an, dass ich die Youtube-Empfehlungen bereits per Werbeblocker ausgeblendet habe. Aber wenn allenthalben geklagt wird, wie gefährdet unsere Demokratie ist, denke ich mir nur: Wundert euch das?
Selbstverständlich (…) bin ich nicht bei Youtube angemeldet und Cookies überleben die Minute nach Verlassen einer Seite nicht. Somit müsste ich eigentlich stets einen neutralen Querschnitt aus Youtubes Portfolio angeboten bekommen. Doch scheinbar ist die KI so voreingenommen, dass sie den Zusammenhang „Wetterbericht > Klimaleugner > Querdenker“ konstruiert. Man kann eben nur aus dem schöpfen, was man auf Lager hat.
Wenn Du „die Filmchen im BLÖD-Stil mit den schwarz-weiß-roten Textbannern“ angezeigt bekommst, dann sucht YouTube die für Dich raus. Hier sind z.B. keine solche Filmchen.
Wenn Du beim Aufruf von YouTube(dot)com im dann erscheinenden Cookie Hinweis auf „Alle ablehnen“ klickst, erscheinen gar keine Videos sondern ein „Der YouTube-Verlauf ist deaktiviert“ Hinweis und ein Suchfeld. Wenn trotzdem Videos erscheinen, hast Du nicht alle Cookies blockiert.
Sorry, aber eben Blase solche Filmchen im BLÖD Stil bekomme ich eben nicht… wenn du also sowas in deiner Blase angezeigt kriegst muss dein Suchverlauf … naja wie soll ich sagen ;-P du weist schon.
kann ich Dir nur Recht geben, solche Erfahrungen wie hier beschrieben habe ich mit YouTube noch nie gemacht. Die sogenannten Empfehlungen mögen nicht immer das sein, was man sich wirklich wünscht, aber weder habe ich rechten Sumpf noch Pornos oder ähnliches jemals vorgeschlagen gesehen.
YouTube ist eine Fundgrube von Mist, guter und schlechter Unterhaltung und genialen Tipps. Unverzichtbar, wenn man Probleme mal selber lösen möchte, ob in Haushalt oder Garten. Unverzichtbar, wenn man Infos zu seinen Hobbys sucht und vieles mehr.
Persönlich denke ich, wenn ich so die Kommentare hier lese, dass in diesem Forum sehr viel kluge Leute unterwegs sind, die sich deutlich von der Masse der verblödeten Normalos abheben, die ja nix verstehen.
Herzlichen Glückwunsch dazu und Danke dafür, dass man bei den klugen Menschen mitlesen darf…
Ich finde es cool. Ist von der Funktion ein bisschen wie Google Notebook LM, das ist enorm hilfreich und spart sehr viel Zeit.
Das funktioniert auch für dieses Blog schon sehr gut..
„bitte eine Zusammenfassung zur Seite: https://www.borncity.com/blog/“
„bei den Kommentaren, was kannst du zu „Luzifer“ sagen?“
„Luzifer“ ist ein regelmäßiger Kommentator auf Borns IT- und Windows-Blog. Seine Kommentare sind oft kritisch und hinterfragen die Aussagen anderer Nutzer sowie die Inhalte der Blogbeiträge. Hier sind einige Beispiele:
1. **Manuelle Updates**: In einem Kommentar zu einem Beitrag über Solar-Wechselrichter betont Luzifer die Wichtigkeit von manuellen Updates und zeigt sich skeptisch gegenüber automatischen Updates[1](https://www.borncity.com/blog/2024/11/27/deye-deaktiviert-solar-manager-in-usa-uk-und-pakistan/).
2. **Recall-Funktion**: In einem anderen Kommentar äußert Luzifer Zweifel daran, dass die umstrittene Recall-Funktion in Windows 11 24H2 tatsächlich deinstallierbar ist, und kritisiert die Verbreitung von unbestätigten Informationen[2](https://www.borncity.com/blog/2024/10/16/windows-11-24h2-recall-nicht-deinstallierbar/).
3. **Kompatibilität von Software**: Luzifer weist darauf hin, dass bestimmte Software, obwohl offiziell nicht unterstützt, dennoch unter Windows 10 funktioniert[3](https://www.borncity.com/blog/2024/10/03/windows-11-24h2-zahlreiche-shop-stopper-und-bekannte-bugs/).
Luzifers Kommentare sind oft technisch fundiert und reflektieren eine kritische Haltung gegenüber neuen Technologien und deren Implementierung.
„wie schätzt du das Linux Mint experiment von Günther Born ein?“
Günter Borns Experiment mit Linux Mint zeigt die Herausforderungen und Lernkurven, die mit der Nutzung von Linux einhergehen können, insbesondere für Nutzer, die hauptsächlich mit Windows vertraut sind. Hier sind einige wichtige Punkte aus seinem Experiment:
1. **Erste Schritte und Probleme**: Born hatte Schwierigkeiten beim Start mit Linux Mint 22, insbesondere bei der Einrichtung von VirtualBox und der Netzwerkkonfiguration für Windows 10-Gastbetriebssysteme[1](https://www.borncity.com/blog/2024/11/25/lost-in-linux-land-an-virtualbox-fast-gescheitert-teil-3/). Diese Probleme sind typisch für Nutzer, die von Windows auf Linux umsteigen, da die Systeme unterschiedliche Ansätze und Werkzeuge verwenden.
2. **Lösungsansätze und Community-Unterstützung**: Trotz der anfänglichen Schwierigkeiten konnte Born durch die Unterstützung seiner Leserschaft und durch eigene Recherchen Lösungen finden. Beispielsweise musste er Secure Boot im UEFI deaktivieren, um VirtualBox korrekt zu installieren[1](https://www.borncity.com/blog/2024/11/25/lost-in-linux-land-an-virtualbox-fast-gescheitert-teil-3/). Dies zeigt, wie wichtig Community-Support und Geduld bei der Fehlerbehebung in Linux-Umgebungen sind.
3. **Lernprozess**: Borns detaillierte Berichte über seine Erfahrungen und die Schritte zur Problemlösung bieten wertvolle Einblicke für andere Nutzer, die ähnliche Herausforderungen meistern möchten. Sein Experiment unterstreicht die Notwendigkeit, sich mit den technischen Details auseinanderzusetzen und kontinuierlich zu lernen[1](https://www.borncity.com/blog/2024/11/25/lost-in-linux-land-an-virtualbox-fast-gescheitert-teil-3/).
Insgesamt ist Borns Experiment ein gutes Beispiel dafür, wie man durch Beharrlichkeit und die Nutzung von Community-Ressourcen erfolgreich von Windows zu Linux wechseln kann. Es zeigt auch, dass solche Experimente oft mit unerwarteten Herausforderungen verbunden sind, die jedoch lösbar sind.
der gleiche Bullshit, den mir andere AI-Lösungen vorsetzen, wenn ich nach meinem Namen googele. Für ‚betreutes Denken‘ geht das durch, ich will mir aber selbst meine Meinung zu einem Sachverhalt bilden und nicht eine Interpretation dessen, was ein LLM aus Versatzstücken diverser Seiten deriviert. Ich hatte ja den Kalauer, das Gerüchte über meinen Tod, die eine AI mal lieferte, doch stark übertrieben schienen. Gut, wird irgendwann halt passen, mit meinem Tod. Aber bisher haben die Ergebnisse der LLM nicht überzeugt. Viel oberflächlicher Text und Vorschläge, was das Modell noch zu wissen glaubt. Das, was ich bei Prompts wissen wollte, wurde mir, wegen eingezogener Leitplanken, verweigert, während ich es von Originalartikeln bereits wusste. Wie will ich wissen, wo das Modell zensiert und wo hinzudichtet? Da wird eine Filterblase verstärkt, ideal für den Betreiber des LLM, der Leute sogar gezielt führen kann.
Schon schlimm, dass manche Leser hier immer noch nicht verstanden haben, was ein LLM ist und wie das funktioniert und dass es rein gar nichts mit Intelligenz zu tun hat :(
Fraunhofer & Co finden das Thema dann doch wohl eher nicht als Bullshit oder Filterblase: OpenGPT-X. Oder mal einen Blick auf huggingface werfen und sich die dortigen Modelle anschauen.
Tatsächlich sind die Möglichkeiten von KI deutlich über das hinausgehend, was reine Chatbots so anbieten, keine Ahnung, warum das Thema hier immer Co-Pilot fixiert ist.
Tatsächlich liefert ChatGPT in den meisten Fällen auch sehr gute Texte, die man auch „gemeinsam“ noch optimieren kann. Natürlich muss man selber mitdenken und prüfen, aber die Zeitersparnisse sind in vielen Bereichen enorm. Man muss natürlich am Prompting arbeiten, KI-Prompter ist ja schon ein Business für sich selber.
Auch die Möglichkeiten, um mit Excel-Daten zu arbeiten, Formeln per Spracheingabe zu erstellen, sind sehr hilfreich. Zusammenfassungen von Texten und so vieles mehr.
Auch was KI im Bereich Bild- oder Videogenerierung liefert, ist mittlerweile erstaunlich und entwickelt sich verdammt schnell.
KI (oder wie immer man es nennen möchte) ist keine Blase, wer das Thema ignoriert, lebt eher in einer Blase und wird in 5-10 Jahres es sehr schwer auf dem Markt haben. Man muss das alles nicht mögen, aber es passiert… entweder mitgehen oder untergehen und von Windows 98 träumen…
Ich bin seit meinem Erstkontakt mit ChatGPT wirklich und ohne jede Ironie beeindruckt von dem, was die Dinger leisten. Genauso frage ich mich seitdem, was man denn in der Praxis nun damit anfangen kann.
Gerade erst an einer Präsentation von Microsoft zum Thema „Copilot im Unternehmen“ teilgenommen. Auch hier wieder: Super, was das Ding kann. Und ausnahmslos komplett unbrauchbare Ergebnisse. Beispielsweise waren die geforderten „5 Key-Findings der letzten Besprechung“ sehr weit entfernt von dem, was in dieser Besprechung *wirklich* wichtig war. Genauso wie die Präsentation, die aus einem langen PDF generiert wurde, nicht einmal annähernd die Essenz des Dokuments vermittelt hat. Copilot kann halt nicht erkennen, dass ein Kopfnicken des Vorstandsvorsitzenden an der richtigen Stelle viel mehr Bedeutung hat als die 30-minütige Diskussion davor.
Mag sehr gut sein, dass das in zwei Jahren anders aussieht. Aber Stand heute ist das Spielerei. Hochinteressante Spielerei, aber Spielerei.
Es werden bei ChatGPT letztlich einfach Wörter und Sätze nach Wahrscheinlichkeiten zusammengewürfelt. Das klingt dann oft nett, ist aber meist Unfug.
Ist halt nur ein stochastischer Papagei, ohne eigenen Sachverstand.
Korrekt. Aber die wenigsten kapieren das. Leider.
nach meinem Gefühl bietet ChatGPT bessere Ergebnisse als Copilot. Man kann dann auch immer gemeinsam am Text arbeiten, optimieren… und bekommt dann Stück für Stück bessere Ergebnisse.
Ich würde aber auch nicht bezweifeln, dass es möglicherweise nicht für alles gleichermaßen gut geeignet ist und natürlich muss man am Ende auch immer selber Hand anlegen, Quellen prüfen etc.
Manchmal passt es auch 1:1, manchmal nicht. Es ersetzt ja keine eigene Intelligenz. Aber gerade, wenn man sich in ein völlig neues Thema einarbeiten muss, hilft es einen Überblick zu bekommen, häufig auch eine Struktur, was die abschließende Eigenleistung dann deutlich einfacher macht.
Und natürlich sind die Sachen in Entwicklung. Die erste Lokomotive ist auch nur 30 Km gefahren…
Aber auch die KI-generierten Bilder & Videos sind teils erstaunlich, je nach Tool. In wenigen Jahren wird man nicht mehr sicher sein, was echt ist und was nicht. Ist jetzt bereits schwierig. Da nützen auch keine KI-Gesetze, da es ja nicht mehr erkennbar sein wird.
Das ist auf der einen Seite genial, auf der anderen sehr gefährlich.
Recht klar wird die Arbeitsweise von gpt in dem Video in dem „es“ gegen einen „richtigen“ Schach Computer antritt.
Es generiert schönen Text, der leider oft gegen die Regeln verstößt.
Er hat das halt irgendwann Mal gelesen…
https://www.youtube.com/watch?v=rSCNW1OCk_M
meine Sorge ist, dass immer mehr Texte im Internet durch llm erzeugt werden und aber ändere llm diese Halluzinationen in seine Daten einarbeiten..
ich habe mal versucht Chatgpt etwas programmieren zu lassen. das Programm hat zwar nicht das getan was ich wollte, aber es hat mir viele nützliche Bibliotheken gezeigt, die ich als Anfänger auf diesem System noch nicht kannte und mir so die Einarbeitung erleichtert.
in obigen Thema und im Kommentar ging es um Copilot und dessen Analysen. Dass es spezielle Fälle gibt, wo LLM Sinn machen, stelle ich nicht in Abrede.
„der gleiche Bullshit, den mir andere AI-Lösungen vorsetzen“ ist dann aber nicht nur der CoPilot, sorry.
Spannende Sichtweise.
Deine Kritik Punkte sind für mich in der Anwendung nicht relevant. Weder bin ich als Mensch in der Lage alles von dir jemals geschrieben zu lesen, noch es zusammen zu fassen. Noch bewerte ich hier die Vollständigkeit, wie auch immer die überhaupt bewertet.
Hingegen ist die KI stark wenn es darum geht Dinge zu finden/erklärt zu bekommen bei denen mir selbst sogar die Grundlagen für das richtige Vokabular fehlen für eine Google Suche.
Google Suche.. also man muss den Sachverhalt kennen, passende Keywords, dann eine Liste von Seiten selbst durch sehen.. gerade hier sind die ganzen neuen Möglichkeiten teils faszinierend.
Die KI wirkt nur stark, weil Du keine Grundlagen kennst. Sobald man bei den KI Antworten selbst bereits Grundlagen hat, erkennt man sofort, das die Antworten zwar oft nett klingen, aber eben Dinge letztlich oft teils haarsträubend falsch findet/erklärt.
Ich setze mit Deepl schon auf KI, wenn ich übersetzte Texte meiner deutschen Blog-Beiträge im englischen Blog einstelle (meist werden einzelne Sätze automatisch übersetzt, weil ich oft die Textlogik im englischen Blog anpasse und auch vieles als unpassend rauswerfen muss). Da kann ich die Ergebnisse sehr gut beurteilen und korrigiere auch, dort, wo notwendig. Auch Rohübersetzungen Englisch -> Deutsch, um einen in englisch gelesenen Sachverhalt nochmals schneller durch Querlesen auf richtiges Verständnis der Originalquellen zu kontrollieren, lasse ich anfertigen.
Bilder und Grafiken generieren lassen, brauche ich nicht. Ich sehe die Ergebnisse diverser Kollegen und denke „wer es braucht“.
Wo ich aber sehr ernüchtert war und auch nicht nutze, ist die erwähnte Suche. Vor längerem hob heise Perplexity AI in den Himmel. Ich hatte dann einen Testlauf mit meinem Namen, weil ich sehr gut abschätzen kann, was im Ausgewiesenen stimmen kann und was nicht. Es war beeindruckend, was mir in Perplexity alles – auch an Vorschlägen – angeboten und ausgeworfen wurde. Hab an einem Sonntag mal gut 2 Stunden versucht, das LLM kreuz und quer zu befragen. War ganz amüsant, wenn man etwas an Small-Talk-Wissen haben will. Warum hatte Günter Jauch mit 15 Hodenschmerzen – hat er seine Freundin wirklich mit 25 verlassen? Wann will Roland Kaiser mit Bühnenauftritten aufhören? An welchen Krankheiten leidet Günter Born? Und so weiter – ist so das Niveau von Artikeln, die in der beim Zahnarzt in der Lesezirkelmappe ausliegenden Gala mit Klatsch über die Royal Family zu finden ist.
Ich verbringe viel Zeit mit Recherchen zu ganz spezifischen Fragen im Internet und muss dazu Suchmaschinen befragen. Da ist es für mich wichtig, die Originalquellen – oft Forenthreads – durchzugehen und unbrauchbares auszusortieren – die LLMs können das m.E. nicht. Da nützt mir „eine Zusammenfassung“ genau nichts.
Andererseits hat mich einige Male der Schalk geritten, wenn es um Datenlecks ging. Ich kannte bestimmte Informationen über direkte Suchergebnisse aus dem Internet. Also wollte ich von ChatGPT bestimmte Fragen beantwortet haben. Die wurden mir aber verweigert, oder ich musste die Prompts verändern, in der Hoffnung, die Sicherheitsmechanismen des LLM auszuhebeln. Hat bei allen meinen Versuchen irre Zeit verbraten, aber am Ende des Tages nichts als Ernüchterung gebracht.
Kürzlich hat ja das Thema ChatGPT verweigert die Auskunft über bestimmte Namen die Runde gemacht (siehe z.B. den Golem-Beitrag ChatGPT verweigert Auskunft über bestimmte Personen).
Wenn ich dies mal zusammenwerfe, ist dieser Aspekt der AI für mich schlicht unbrauchbar. Ich weiß ja nie, was mir angezeigt und was mir vorenthalten wird. Trifft natürlich nicht auf jeden Nutzer zu – aber man sollte sich diese Sachverhalte mal durch den Kopf gehen lassen. Will ich valide Informationen oder viel Text und Prosa? Ich halte es aus dieser Sichtweise für sehr schwierig, auf ChatGPT und Copilot zu setzen und den Ergebnissen zu vertrauen.
Mir ist aber auch klar, warum ChatGPT in den USA gehyped wird. Dort gilt oft ein extrem niedriger Ausbildungsstand, self teaching und self optimizing ist oft weit verbreitet. Da wird dann in versucht, mit solchen Hilfsmitteln vermeintlich mehr zu erreichen.
Wo ich schon Potential für AI-Lösungen sehe, sind Fragestellungen, wo sich ein LLM durch Lernen selbst optimieren kann (z.B. Auswertung von großen Datenmengen wie Bilder aus der Medizin, Astronomieaufnahmen, Synthese chemischer Verbindungen etc.). Aber auch hier hebe ich den warnenden Finger – kürzlich hat man in der Astronomie gänzlich unbekannte Objekte in Aufnahmen gefunden, die durch die AI jahrelang aussortiert wurden, weil die Modelle diese nicht erkannten. Nur der Blick eines Menschen hat erkannt „Moment, da ist etwas, für das untere AI-Algorithmen blind sind“.
Und jetzt überlasse ich der Leserschaft die Extrapolation, wenn jeder nur noch AI nutzt und die Ergebnisse ungefragt weiter verwendet. Dass das so kommen wird, daran hege ich keine Zweifel.
Spannend finde ich dass du das der KI anlastest.
Woher willst du wissen was Google alles nicht anzeigt?
Die KI kann Themen deutlich im Detail vertiefen, aber aktuell nicht wie ein Lehrer erklären.
Einen Steckbrief zur Person erstellen könnte sie, sicher, aber das ist IMHO nicht gewollt, bzw. fehlen dazu simple die Quellen, und bei den bestehebden Quellen fehlt die Auswertung zur Zuverlässigkeit.
Du hast es immer noch nicht verstanden, oder wir reden aneinander vorbei. Natürlich kann ich nicht sagen, ob Google mir bei einer Suche alles angezeigt hat. Was ich aber sagen kann: Die Quellen, die mir angezeigt wurden, und die ich dann durchgegangen bin, kann ich auf die für mich relevant erscheinenden Information abklopfen und bewerten. Ein LLM filtert mir n Quellen und generiert daraus ein Exzerpt. Scheint dieses passend, müsste ich die verlinkten Quellen nochmals durchgehen, um zu verifizieren, dass das LLM genau das bewertet und durchgelassen hat, was ich will. Aber bisher komme ich bei den AI-Bots gar nicht bis dahin, dass für mich was sinnvolles herauskommt. Meist werfe ich nach zwei, drei Prompts genervt das Handtuch, weil ich unpassende Antworten erhalte.
Gerade heute noch einen kurzen Test gefahren. Es geht um ein Datenleck auf einer Webseite, das inzwischen geschlossen ist. Ich weiß aber, wie ich über Google oder Bing an Treffer bei der Suche herankomme. Also wollte ich heute über Perplexity AI mal prüfen lassen, was dessen LLM mir zu erzählen hat. Wie erwartet hat mir das AI-Modell einen vom Pferd erzählen wollen und Sachen ausgespuckt, die mich nicht interessiert haben. Die Treffer, die das Datenleck tangieren, wurden erst gar nicht ausgespuckt – auf dieser Ebene habe ich diese Information schlicht nicht gefunden.
Das sind dann so Fälle, die mich a) tierisch nerven, weil ich mit direkter Suche viel zielgerichteter an Ergebnisse komme, und die AI-Suche irre Zeit frisst, ohne mich bisher weiter zu bringen. Und b) mich dazu bewegt, aus diesem Blickwinkel den Sinn von AI-Modellen bei bestimmten Ansätzen meinerseits zu hinterfragen. Es ist in meinen Augen unproduktiv: Ich gebe jemand einen Auftrag, tue dies und jenes und berichte, statt das selbst zu tun und zu suchen. So bleibt bei einer sinnvoll erscheinenden Antwort immer der Verdacht, dass ein Modell mir eine falsche Blase zeigt und ich gar nicht erkenne, wie falsch das Bild ist.
Es gab einen Fall, den ich erinnere, wo AI etwas mehr an Informationen lieferte, als ich per manueller Suche gefunden habe. Also habe ich das Schwarmwissen angezapft. Ein Leser hatte mir darauf hin AI-Ergebnisse als Kommentare zukommen lassen. Problem am Ende des Tages: Es sah alles vielversprechend aus, aber es gab keine Quellen. In einer Suche bei Google bin ich auch nicht fündig geworden bzw. weiter gekommen. Damit war das Ergebnis wertlos, der Text hätte auch konfabuliert sein können.
Um es kurz auf den Punkt zu bringen: Ich teste ja immer wieder die Möglichkeiten von AI-Plattformen mit ihren Modellen. Bisher habe ich aber immer nach 5 Minuten aufgesteckt, weil sofort erkennbar war, dass die Modelle nicht pronto auf den Kern kommen, sondern rum schwurbeln. Kann an meinen defizitären Fähigkeiten als Prompt-Engineer liegen. Ich habe aktuell vier KI-Bücher zur Besprechung auf dem Tisch – muss das Werk zum besseren KI-Prompting wohl mal querlesen, vielleicht schnackelt es dann ;-).
Ich kenne das aus meinen ersten Versuchen. Das Prompt war einfach deutlich zu kurz.
ChatGPT kann Prompts mit bis mehreren 10000 Wörtern Eingabe aber nur 8k/16k Ausgabe..
Das andere Problem ist gerade bei Suchmaschinen dass diese „nur“ mit Vektor Datenbanken arbeiten, den Anspruch an ein Verstehen deshalb gar nicht erfüllen können, weil halt Vektor Datenbanken quasi nur eine fancy Text Suche sind.
Da wird aktuell daran gearbeitet… Also aus der Frage erzeugt die KI im Hintergrund Texte, die wiederum in Vektor Datenbanken gesucht werden.
Das funktioniert für Nachrichtentexte brauchbar, aber sehr schlecht in Technischen Kontext.
Die meisten GPT Modelle brauchen unter 20GB Speicher, die können gar nicht alles wissen.
Das Thema mit den Quellen.. ich suche seit Jahren wenn ich irgendwo nen Registry Key sehe.. immer diesen direkt um nachzusehen woher der kommt.
Das geht bei Linux Scripten sysfs Eintragen regelmäßig schief, weil gerade die alten Tutorials meist einfach falsch sind.
Tja nur wenn dir die Grundlagen fehlen, woher wiest du dann das das was dir die KI erzählt kein Märchen ist? Das dem oft so ist ist längst nachgewiesen!
Ohne eigenes (Fach)wissen ist KI einfach nur wertlos aneinandergereites Gebrabbel das sich für weniger gebildete Leute toll anhört!
Und wenn mir ein KI generiertes Bild Menschen on mass mit 6 Fingern erzeugt oder schwarze Nazis vorsetzt, dann weis ich was ich von halten soll! Nur ist das eben selten so offensichtlich und die weniger gesegneten glauben das dann einfach so, kommt ja von ner KI, muss dann ja stimmen.
Und da liegt das Problem! Und damit das KI absolut null mit Intelligenz zu tun hat.
Woher soll man wissen was hier geschrieben ist/wird Schrott ist?
Das Problem gibt es bei jedem Wissen.
Viele Menschen behaupten Recht schnell einen Sachverhalt, mit einer sehr großen Selbst-Überzeugung.
In den Anwendungen die hier diskutiert werden verwendet die KI fast nur menschliche Texte vollkommen ohne Inhaltlich Prüfung.
Da die KI in den aktuelle Auch Modellen auch keine Bilder auswertet sondern nur den Text, schränkt das den Blickwinkel nochmal zusätzlich ein. Höhere Datenformate fehlen vollkommen.. Excel/Word/AutoCAD/STL/..
Es geht hier auch gar nicht, was alles nicht geht, diese Menge ist per Definition immer unendlich groß.
Aber es geht sehr viel, und schnell mehr.
Bin sehr gespannt wann von Google das Modell freigegeben wird das die Maus bewegen und Bildschirm Inhalte erfassen man .
KI bringt die Menschheit gerade dazu den Intelligenz Begriff neu zu verstehen. Und zwar rein durch die Existen von LLMs.
Kennst Du die Google Play Dienste? Die machen so einiges im Hintergrund. Übrgens inklusive die Naherfassung für all die Corinna Apps damals, die selbst nur ein GUI dafür waren…
Aus App Entwicklersicht, ist der Kritikpunkt an Google Play Diensten, dass dann die App dann nicht ohne Google Dienste funktioniert.
Aber.. die Google Play Dienste sind halt praktisch. Am Handy sollen Apps wenig Strom brauchen, und Google Play stellt hier die Infrastruktur das hinzubekommen.
Alle Apps am Handy teilen sich die Message-Queue dadurch kann die App selbst im idle schlafen gehen.
Lustigerweise wird über die Google Play Dienste erstaunlich viel geschrieben.. andere Plattformen bietet hier gar keine Option für eine Alternative. Google hat seit Android 6.0 die Dienste an die Updates und andere Vorgaben geknüpft um die Hersteller Fragmentierung bei Android zu begrenzen.
Wenn der Appentwickler nicht will, kann Google hier keine Daten mitlesen.
Wenn es hier Sorge gibt, ist es einfacher einfach ein Handy ohne Google Play Dienste zu kaufen.
Man verzichtet halt auf viele Apps.
Hier sind Google Play Dienste deaktiviert. Keine Einschränkung bei meiner Nutzung. Habe allerdings kein WhatsApp o.ä. Das einzige was nicht funktioniert in manchen Apps ist eine Push Notification, z.B. DWD Warnwetter. Und manche Apps meckern bei jedem App Start wg. Google Play Dienste z.B. DB Navigator aber diese Benachrichtigung kann man dann pro App abschalten.
Vorteil der deaktivierten Google Play Dienste: Akkulaufzeit 200-300%.
Bin mir sicher, dass künstliche „Intelligenz“ ’ne feine Sache sein kann.
Wenn sie in speziellen Bereichen, von entsprechenden Experten, auf spezielle Aufgaben trainiert wird.
So was wie Copilot, das einfach auf das Internet losgelassen wird, von was weiss ich für Vögeln benutzt, und damit auch von denen trainiert wird, kann doch nur in die Hose gehen. Früher oder später…
@Alle: Ist folgende Aufgabe bei LLM richtig aufgehoben? Oder sollte man eine mathematische Fragestellung bei den textorientierten neuronalen Netzen wie https://copilot.microsoft.cloud meiden?
Please add a pair of parentheses to the incorrect equation: 1 + 2 * 3 + 4 * 5 + 6 * 7 + 8 * 9 = 479, to make the equation true.
Schon zig-mail angefragt, selten kommt das richtige Ergebnis. Allermeist das falsche Ergebnis.
Interessanterweise kommt einmal das richtige Ergebnisse. Stellt man 10 sec. später exakt dieselbe Frage, kommt eine ganz andere, falsche Antwort.
es ist bekannt, das Chatgpt nicht rechnen kann und auch sonst Probleme mit „Logik“ hat.
siehe oben das Schachspiel oder meinen Versuch, in dem Chatgpt die Logik genau falsch herum programmiert wollte.
Es versteht halt nicht was es da tut.
Ja, LLM Ausgaben sind grundsätzlich alles Müll der nach Wahrscheinlichkeiten zusammengewürfelt wird. Es sieht vielleicht erstmal nett aus und wirkt für manche toll, aber es ist ernsthaft absolut nicht nutzbar. Viele erkennen das leider nicht.
es ist bekannt, das Chatgpt nicht rechnen kann und auch sonst Probleme mit „Logik“ hat.
siehe oben das Schachspiel oder meinen Versuch, in dem Chatgpt die Logik genau falsch herum programmiert wollte.
Es versteht halt nicht was es da tut.
Dann wäre es aber mindestens „intelligent“ oder ehrlich von den Vermarktern von KI auf solche Einschränkungen hinzuweisen. Warum antwortet mir copilot.microsoft.cloud nicht einfach: Bei mathematischen Aufgaben bin ich nicht kompetent, wende Dich an Wolfram Alpha.
So muss ich bei einem LLM immer davon ausgehen, dass ich einem Scharlatan gegeben stehe.
Du musst bei jedem LLM immer davon ausgehen, dass Du einem Scharlatan gegenüben stehst. So einfach ist das. Nicht nur beim Rechnen. Die Medien verkaufen Dir nur was anderes…
Typo: **gegenüberstehe.**