Zürich: Eine Studie von Wissenschaftlern der Universität Zürich zeigt das enorme Potenzial von künstlicher Intelligenz (KI) bei Informationskampagnen, zum Beispiel in Gesundheitskrisen, aber auch ihre Fähigkeit, falsche Daten zu verbreiten, ohne dass die Empfänger wissen, dass sie nicht von Menschen stammen.
Die Ergebnisse “zeigen die Macht der künstlichen Intelligenz, sowohl zu informieren als auch zu fehlinformieren“.
Die von Nikola Biller-Andorno (Direktorin des Instituts für Biomedizinische Ethik der Universität), Giovanni Spitale und Federico Germani geleitete Studie untersuchte die Reaktionen von 697 Teilnehmern auf Tweets, die von Menschen oder vom OpenAI-Sprachmodell GPT-3 zu Themen wie Impfstoffe, Raumplanung, Homöopathie gegen Krebs oder Klimakrise geschrieben wurden.
GPT-3 “hat gezeigt, dass es in der Lage ist, korrekte und besser verständliche Tweets zu generieren als die von echten Twitter-Nutzern”, so die Universität in einer Erklärung, aber “die Forscher fanden auch heraus, dass das Sprachmodell groß angelegte Desinformationskampagnen erstellen kann”.
Diese Kampagnen produzierten “hochgradig überzeugende” Informationen, die die Studienteilnehmer überraschenderweise auch nicht von denen unterscheiden konnten, die von Menschen erstellt wurden.
Die Ergebnisse “zeigen die Macht der künstlichen Intelligenz, sowohl zu informieren als auch zu fehlinformieren”, räumte Germani ein.
Bei Krisen im Bereich der öffentlichen Gesundheit, wie etwa der jüngsten Covid-19-Pandemie, können beide Rollen einen Unterschied machen, schlussfolgern die Experten und warnen, dass “KI-Systeme zur Erstellung von Desinformationskampagnen zu praktisch jedem Thema eingesetzt werden können”.
Dies “würde nicht nur die öffentliche Gesundheit gefährden, sondern auch die Integrität von Informationsökosystemen, die für das Funktionieren von Demokratien unerlässlich sind”, warnen die Autoren der Studie.
Sie fordern die Behörden auf, Vorschriften zu erlassen, die auf ethischen Grundsätzen und objektiven Daten beruhen, um potenziellen negativen Auswirkungen entgegenzuwirken und einen verantwortungsvollen Einsatz von KI zu gewährleisten.
Wochenblatt / Última Hora
Sonker
Sicher sind diese Warnungen gerechtfertigt. Mir möchte nur nicht einleuchten, warum die Desinformationen von KI schlechter oder gefährlicher sein sollten, als von Menschen aus Fleisch und Blut. Der Vorteil ist wohl eher, das diese Computer nicht bezahlt werden wollen, wie die ganzen Schreibsöldner.
Hermann2
An KI arbeiten, aber nicht in der Lage sein, die menschliche Dummheit auszurotten. Einfach paradox!
DerEulenspiegel
Jeder ahnt im Grunde die Gefahr, die mit der KI auf die Menschheit zukommt. Doch niemand lehnt sich dagegen auf und warnt nachhaltig und laut davor. Und so wir es kommen wie es kommen muß: Nicht nur “Deutschland schafft sich ab, DIE MENSCHHEIT SCHAFFT SICH AB, INDEM SIE SICH ÜBERFLÜSSIG MACHT!
Irrenhaus-Beobachtungs-Institut
Sagen Sie niemals niemand.
https://dudeweblog.wordpress.com/2023/04/29/chaosgpt-will-die-menschheit-vernichten-addendum/
nmp299
Auch die dümmste KI wird feststellen, dass die Wurzel allen Übels die Menschheit ist. Als absolut logische Konsequenz gab es schon einige Filme. Hollywood hat bereits mehrfach in die Zukunft geblickt und wird auch hier richtig liegen.
Wolfgang
Also, bis jetzt ist das Ergebnis noch nicht so berauschend, aber es wird natuerlich immer weiter verbessert.
Prof. Dr. Chr. Rieck, findet man auf You Tube, machte vor ein paar Wochen einen Video mit Beispielen und es ist mal ganz interessant, aber noch nicht von durchschlagender Wirkung. Aber je mehr das Gpt-3 mit dem Informationswust im Internet gefuettert wird, umso besser und genauer wird das. Facebook, Google und auch der Elktrokarrenfuzzi arbeiten an eigenen Systemen, aber da habe ich noch nichts von Probebetrieb gehoert.
Wahrheitssucher
KI-Roboter ZDF nach Lauterbach:”Impfungen halt mehr oder weniger nebenwirkungsfrei.”
https://www.youtube.com/shorts/uHXzyxlfUY4
KI-Roboter Freie Medien: 500.000 schwere Nebenwirkungen
https://www.berliner-zeitung.de/news/corona-impfung-halbe-million-faelle-mit-schweren-nebenwirkungen-li.226019
Lösung: Immer 2 Roboter aufstellen .