9punkt - Die Debattenrundschau - Archiv

Internet

1276 Presseschau-Absätze - Seite 7 von 128

9punkt - Die Debattenrundschau vom 03.04.2023 - Internet

"Seit Freitag ist Italien das erste demokratische Land, das die Entwicklung und Verbreitung eines KI-Programms ausbremst", berichtet Andrian Kreye in der SZ. "Die Datenschutzbehörde Garante per la protezione dei dati personali (GPDP) ließ den Chat-GPT-Chatbot des kalifornischen Start-up-Unternehmen Open AI sperren. Das ist eine KI, mit der man sich über ein Texteingabefeld so flüssig unterhalten kann wie mit einem Menschen. Die Beamten forderten die Firma auf, mit sofortiger Wirkung keine Daten italienischer Bürger mehr zu verarbeiten, sonst drohe eine Strafe in Höhe von 20 Millionen Euro, oder vier Prozent des weltweiten Gesamtumsatzes." Grund sind fehlende Jugendschutzfilter und ein Fehler, der alle Chatverläufe für ein paar Stunden sichtbar machte.

Dieser Hype um die Gefahren der KI, der sich jetzt auch in einem Offenen Brief äußert, den unter anderem Twitter-Chef Elon Musk und Apple-Mitgründer Steve Wozniak unterschrieben haben, ist doch Blödsinn, kritisiert bei netzpolitik der Politikwissenschaftler Daniel Leisegang. Überhaupt, wozu der schrille Weltuntergangston? Ist der nicht eher "Ergebnis eines sich selbst verstärkenden Hypes", fragt Leisegang. "Die Linguistin Emily Bender kritisiert den Brief als weiteren Treibstoff für den KI-Hype. Sie weist darauf hin, dass derzeit niemand eine digitale Intelligenz ('digital mind') baue oder etwas Derartiges plane. Bender gehört zu den Mit-Autorinnen eines Forschungspapiers, das ChatGPT und vergleichbare große Sprachmodelle als 'stochastischen Papagei' bezeichnet. Sie würden vor allem auf die Vorhersage von Zeichenketten trainiert, demzufolge wissen die Systeme nicht, worüber sie sprechen. Stattdessen produzieren sie im Sinne des Philosophen Harry Frankfurt 'Bullshit' (zu Deutsch: Blödsinn) - sie lügen zwar nicht bewusst, scheren sich aber auch nicht darum, ob ihre Aussagen wahr sind."

9punkt - Die Debattenrundschau vom 01.04.2023 - Internet

Angesichts der dramatischen Waffengewalt an den amerikanischen Schulen, würden Farhad Manjoo in der New York Times wichtigere Dinge zum Schutz amerikanischer Kinder einfallen, aber dass der Kongress jetzt entschlossen auf ein Verbot von TikTok zumarschiert, stößt ihn regelrecht vor den Kopf: "Eine Nichtlösung für ein aufgetürmtes Problem, ein Glücksfall für Big-Tech-Oligopolisten wie Facebook und Google, eine Verletzung der Rechte auf freie Meinungsäußerung von Millionen Amerikanern und ein Schlag für die moralische Autorität Amerikas, Werte wie die freie Meinungsäußerung zu fördern, anders als, sagen wir, die Kommunistische Partei Chinas. Selbst für diejenigen, die sich Sorgen machen über den Einfluss des Unternehmens, ist ein allein auf TikTok zielendes Verbot unnötig, da es einen viel besseren Weg gibt, diese und andere soziale Apps zu regulieren: Strenge Gesetze zum Schutz der digitalen Privatsphäre aller Amerikaner vor invasiven Apps, die überall hergestellt werden, nicht nur in China."

Nur kurz wundert sich der Literaturwissenschaftler Manfred Schneider in der NZZ über die naive Begeisterung, mit der so viele Journalisten auf die  Erzeugnisse der Künstlichen Intelligenz reagieren: "Bedenkt man den Charakter dieser Chatbots, die nichts anderes tun, als den vorhandenen Reichtum und Müll menschlicher Kunst und Kommunikation auf Kommando umzuschreiben, dann ist die Reaktion vieler Journalisten in den letzten Monaten auch wieder nicht überraschend. Denn die Texte, die aus den Chatbots kommen und das kindliche Vergnügen auslösen, entsprechen in ihrer Erwartbarkeit vollkommen dem Konformismus, der längst die Arbeit der Journalisten in allen Medien charakterisiert. Was ihnen der Chatbot zu lesen gibt, könnte von ihnen selbst geschrieben sein."

Nur der Mainstream hält den Bitcoin für die Utopie von gestern oder für einen Fall der Glücksspielaufsicht: Im Welt-Interview offenbart sich Ijoma Mangold als ein zum Finanzwesen bekehrter Feuilletonist. Er hat in Bitcoin investiert und promotet die Gegenfinanz, auch mit seinem Buch "Die orange Pille", mit derartiger Verve, dass man es für Satire halten könnte: "Als die Mehrheitsgesellschaft bemerkte, dass das Phänomen nicht verschwindet, kamen Wellen der Feindseligkeit auf - und der Versuch, Bitcoin zu diskreditieren, als Geld für Kriminelle, Geld des Drogenhandels oder Geld mit einem enormen CO 2Fußabdruck. Diese Stigmatisierung schweißt so eine junge, minoritäre Gemeinschaft natürlich zusammen - ähnlich dem Frühchristentum, das eine verfolgt e Minderheit im Römischen Reich darstellte."

9punkt - Die Debattenrundschau vom 31.03.2023 - Internet

Menschen und KI könnten künftig eine "Evolutionseinheit" bilden, "wobei sowohl Menschen als auch KI Bestandteile einer einzigen, sich auf höherer Ebene replizierenden Einheit sind", glaubt der Evolutionstheoretiker Paul Rainey im Tagesspiegel-Gespräch: "Ich denke, in gar nicht so ferner Zukunft werden sich Menschen nicht mehr autonom entwickeln. Unsere Spezies ist in Jahrmillionen durch das machtvolle Wirken der natürlichen Auslese entstanden. In jeder Generation konnten sich die am meisten fortpflanzen, deren Nachkommen am besten an Ihre Umwelt angepasst sind. So wie das auch bei allen anderen Organismen der Fall ist. Das könnte sich nun ändern. Künftig könnten diejenigen die besten Chancen haben, die gemeinsam mit einer KI am erfolgreichsten agieren. Mensch und KI werden sich in einer Symbiose weiterentwickeln." Auch die Entwicklung einer autonomen KI hält er nicht für unwahrscheinlich.

Derweil hat "Yuval Noah Harari gemeinsam mit anderen Intellektuellen, FachexpertInnen und UnternehmerInnen, darunter Apple-Mitgründer Steve Wozniak, Skype-Mitgründer Jaan Tallinn und Tesla-Chef Elon Musk, einen offenen Brief verfasst, in dem sie eine Pause im Wettlauf um immer bessere Programme fordern", meldet Michael Hesse in der FR: "Der Grund: Die Risiken seien unkalkulierbar." In dem Brief heißt es: "'Wir rufen alle KI-Labore auf, sofort und für mindestens sechs Monate das Training von KI-Systemen zu stoppen, die mächtiger sind als GPT-4'. Sollten die Labore darauf nicht reagieren, müssten eben Regierungen für ein Moratorium sorgen. Die Risiken erforderten Planung und Management, so die Gruppe um Harari. In den Laboren könnten die Fachleute ihre Systeme selbst nicht mehr 'verstehen, vorausberechnen und verlässlich kontrollieren'." Empfohlen wird, eigene KI-Behörden einzurichten.

9punkt - Die Debattenrundschau vom 27.03.2023 - Internet

Der australische Philosoph David Chalmers und der amerikanische Linguist Noam Chomsky machen sich wenig Sorgen, dass KI eines Tages übernimmt und den Menschen abschafft, lernt Michael Hesse, der Aussagen der beiden aus anderen Medien zu ChatGPT und Co zusammengetragen hat: Diese Programme mögen nützlich sein, doch sie hätten nichts zu tun mit der Art, wie Menschen denken, erklärte Chomsky in der NYT. "Für den mittlerweile 94-Jährigen ist der menschliche Verstand vollkommen unterschiedlich im Vergleich zu bisherigen Entwicklungen auf dem Feld der KI. Denn der Geist des Menschen sei keine schwerfällige statistische Maschine für den Musterabgleich, 'die Hunderte von Terabyte an Daten verschlingt und die wahrscheinlichste Gesprächsantwort oder die wahrscheinlichste Antwort auf eine wissenschaftliche Frage extrapoliert'. Für Chomsky ist das genaue Gegenteil der Fall: 'Der menschliche Verstand ist ein überraschend effizientes und sogar elegantes System, das mit kleinen Informationsmengen arbeitet; es versucht nicht, grobe Korrelationen zwischen Datenpunkten abzuleiten, sondern Erklärungen zu schaffen.'"

In der taz sieht das der Pädagoge Nicolaus Wilder ganz ähnlich: "Generative KIs sind bei der Weiterentwicklung notwendigerweise angewiesen auf menschlichen Input. Sie reproduzieren stets das Wahrscheinlichste, erhalten damit zwingend den Mainstream und können so nicht grundlegend innovativ sein. Eine KI, die ausschließlich mit Daten trainiert wurde, die sagen, dass die Welt eine Scheibe ist, kommt von sich aus nicht auf die Idee, dass sie vielleicht doch eine Kugel sein könnte. Noch weniger macht sie sich mit einem Schiff auf den Weg, um das zu beweisen, denn Wahrheit ist für sie nur eine Zeichenreihenfolge und kein orientierungsstiftendes Konzept. Die KI orientiert sich ausschließlich an Wahrscheinlichkeiten. Für die Wissenschaft heißt das, dass viele Dinge von KIs übernommen werden können, die in der Auseinandersetzung mit dem Bestehenden liegen: recherchieren, zusammenfassen, sortieren, gewichten sowie mitunter das Verfassen von Standardlehrbüchern oder Rezensionen. Dem Menschen schafft sie dadurch Zeit und Raum, sich auf das Innovative, das im gegenwärtigen Paradigma Unwahrscheinliche, dem Denken in alternativen Möglichkeiten zu konzentrieren."

Außerdem: In der Welt warnt Christian Meier vor Verschwörungstheorien zur KI.

9punkt - Die Debattenrundschau vom 24.03.2023 - Internet

Anders als Sascha Lobo gestern (unser Resümee) traut Björn Hayer (FR) dem Menschen viel mehr zu als den Maschinen und ist deshalb froh über die Stellungnahme des Ethikrates zur Künstlichen Intelligenz, die für ihn nicht weniger als das Erbe der Aufklärung ist: "KI soll, wie es schon Marshall McLuhan forderte, der Erweiterung humanen Agierens - zum Beispiel bei der Auswertung großer Datenmengen - dienen. Aber sie darf seine Tätigkeit nicht ersetzen. Denn glaubt man der sich durch alle Kapitel ziehenden Befürchtung, könnte smarte Technik gerade in Bereichen mit Personalmangel ausgiebig zum Einsatz kommen. Sei es der Schulunterricht oder der Bürgergeldantrag oder gar das klärende Arztgespräch - das menschliche Gegenüber ließe sich nur allzu leicht durch einen sterilen und seelenlosen Avatar auswechseln."

9punkt - Die Debattenrundschau vom 23.03.2023 - Internet

"Was in den kommenden fünf Jahren durch künstliche Intelligenz mit der Welt passieren wird, wird alles in den Schatten stellen, was wir vorher gesehen haben", sagt der KI-Forscher Christian Bauckhage im Welt-Gespräch, in dem er auch die Entwicklung eines Bewusstseins von Künstlichen Intelligenzen nicht ausschließt und erklärt, dass die KI dem Menschen bereits überlegen ist: "Wir wissen im Prinzip, wie diese Systeme funktionieren, aber ihre schiere Größe macht sie intransparent. Wir reden hier von 100 Milliarden Parametern. Kein Mensch kann sagen, welcher Parameter an welcher Stelle für welches Verhalten des Systems verantwortlich ist. Die Algorithmen, die in diesen Systemen ablaufen, verstehen wir sehr gut, sonst könnten wir sie nicht bauen. Aber das, was diese Algorithmen erzeugen, ist von einer Komplexität, die für Individuen, für ganze Teams von Leuten überhaupt nicht nachvollziehbar ist."

"KI darf den Menschen nicht ersetzen", warnte auch der deutsche Ethikrat in seinen Empfehlungen zum Einsatz Künstlicher Intelligenz. "Es wäre falsch, das als Binsenweisheit abzutun und den dazu betriebenen Aufwand infrage zu stellen", meint Harry Nutt in der Berliner Zeitung. "So wird beispielsweise konstatiert, dass KI-Systeme auf der Basis vorhandener Daten lernen und dadurch womöglich auch vorhandene Festschreibungen und soziales Gefälle transportiert werden. Es sei sogar denkbar, 'dass explizite Diskriminierungsabsichten in komplexen Systemen versteckt werden könnten'."

Bei Spon rollt Sascha Lobo die Augen: Der ganze Sinn von KI ist es doch, den - höchst fehlerhaften - Menschen zu ersetzen! "Das Menschenbild, das der Diskussion zugrunde liegt, romantisiert an vielen Stellen den Menschen und seine menschliche Entscheidungsgewalt, etwa mit einem Satz wie: 'Wollte man versuchen, den Menschen als Handlungssouverän zu ersetzen, käme es zu einer Diffusion oder vollständigen Eliminierung von Verantwortung.' Ethik könnte prinzipiell auch 'Mahnwesen' heißen, das liegt in der Natur dieser Disziplin. Aber diese große Mahnung verkennt aus meiner Sicht, dass der Mensch als Handlungssouverän oft genug komplett in den Quark greift und anschließend nicht einmal genau sagen kann, warum. 'Eliminierung von Verantwortung' ist sogar ein klassisches Muster der menschengemachten Bürokratie - der man maschinell entgegenwirken kann, weil die Maschine transparent sein kann und dadurch messbar wird, wenn man will."

9punkt - Die Debattenrundschau vom 22.03.2023 - Internet

Michael Hanfeld hat sich für die FAZ eine Studie des Institute for Strategic Dialogue (ISD) und der Organisation CASM Technology über Twitter angesehen, die einen starken Anstieg antisemitischer Inhalte seit Elon Musks übernahme feststellt: Sie "zeigt in Einzelheiten, was geschieht, wenn eine digitale Plattform die Beobachtung hetzerischer Inhalte schleifen lässt: So habe sich die Zahl neuer antisemitischer Konten nach Musks Machtübernahme mehr als verdreifacht. Zwar scheine der Anteil antisemitischer Inhalte, die Twitter entfernte, seit Musks Antritt gestiegen zu sein. Doch habe dies 'nicht mit dem Anstieg der antisemitischen Inhalte insgesamt Schritt gehalten'." Eine Anfrage der Antisemitismusbeauftragten von Nordrhein-Westfalen, Sabine Leutheusser-Schnarrenberger, beantwortete die Presseabteilung von Twitter mit einem "Kackhäufchen-Emoji".

9punkt - Die Debattenrundschau vom 21.03.2023 - Internet

"Künstliche Intelligenz muss ein Werkzeug bleiben, über das der Mensch die Kontrolle behält" - das ist die wesentliche Botschaft, die Andrian Kreye in der SZ aus dem 287seitigen Papier des Deutschen Ethikrats zu den Herausforderungen der KI mitgenommen hat. Probleme dürfte es künftig nicht nur bei Urheberrechtsfragen, sondern ganz allgemein bei Fragen der Verantwortung geben, meint Kreye: "Weil man nach den Kriterien des Ethikrats davon ausgehen müsste, dass eine KI immer nur ein Werkzeug ist und somit alle Dinge, die ein Mensch damit schafft, auch das Werk dieses Menschen sind, egal wie einfach die Maschine den schöpferischen Akt gemacht hat. Was dann sofort die Frage nach sich zieht - wenn die Maschine die Rechte für so ein Werk hat, beziehungsweise diese Rechte einfach ausgehebelt werden, wer trägt dann die Verantwortung? Kehrt man zum KI-Bericht des Ethikrats zurück, stellt sich dann die Frage, wird KI in der Medizin eingesetzt, trägt sie dann auch einen Teil der Verantwortung für die Behandlung? Kann man einen Computer auf Kunstfehler verklagen?"

"Wir sind zu dem Schluss gekommen: Im engen Sinne können Maschinen nicht handeln und dementsprechend auch keine Verantwortung übernehmen", betont die Philosophin Judith Simon, Mitglied des Ethikrats, entsprechend im FR-Gespräch mit Lisa Berins, in dem sie auch Vermutungen darüber anstellt, welche Jobs durch KI wegfallen könnten: "Der Journalismus wird sicher unter Druck geraten, da KI gerade standardisierte Texte schneller und somit billiger als menschliche Redakteurinnen und Redakteure verfassen kann. In allen Bereichen, in denen eine gewisse Standardisierung eine Rolle spielt, in denen nach bestimmten Schemata gearbeitet wird, ist KI ein Gamechanger: bei Vertragsprüfungen etwa - aber auch in der Kulturproduktion. Krimis, TV-Serien - die laufen nach bestimmten Mustern ab. Und KI ist nun mal ziemlich gut darin, Muster mit leichten Variationen zu reproduzieren."

9punkt - Die Debattenrundschau vom 20.03.2023 - Internet

Künstliche Intelligenz ist oft natürlicher als wir glauben. Hinter den schicken Oberflächen stecken Millionen Menschen, die ausgebeutet werden, sagt die kritische Tech-Forscherin Milagros Miceli im Gespräch mit Chris Köver von Netzpolitik: "Smarte Kameras sind ein gutes Beispiel dafür. Einige dieser Systeme werden als KI-gesteuert verkauft, aber die Technologie ist noch nicht so weit. Wenn man hinter den Vorhang schaut, handelt es sich nur um eine Gruppe von Menschen, die rund um die Uhr Kameras überwachen. Diese Menschen sind unterbezahlt und arbeiten in der Regel unter furchtbaren Bedingungen, etwa in Afrika oder Süd- und Mittelamerika. Mein Forscherkollege Antonio Casilli hat gerade einen solchen Fall aus Madagaskar vorgestellt: 35 Menschen leben in einem Haus mit nur einer Toilette. Diese Menschen stecken in Wahrheit hinter einem vermeintlich intelligenten Kamerasystem."

9punkt - Die Debattenrundschau vom 16.03.2023 - Internet

Die Chinesen haben ein Problem mit der KI: das I darin darf nicht zu sehr hervortreten. Trotzdem wären sie gern Weltmeister auf dem Gebiet und entwickeln mit "Ernie" gerade eine Konkurrenz zu Chat-GPT, berichtet Kai Strittmatter in der SZ: Doch eine Furcht treibt "Zensoren und in ihrem Gefolge auch die Entwickler in China: Was, wenn die neuen Bots auch in China so außer Rand und Band geraten, wie sie das in den USA bisweilen tun? Was, wenn einer aus Versehen den Dalai Lama mag, Taiwan zu einem eigenen Staat macht oder das Leid der Uiguren beklagt? Die Erinnerung ist noch frisch an zwei chinesische Urahnen von Ernie und ChatGPT: Im Auftrag des Tencent-Konzernes beantworteten die Bots BabyQ und Xiaobing 2017 Nutzerfragen. Auf den Zuruf 'Lang lebe die KP' antwortete BabyQ mit einer Schimpftirade über das 'korrupte und unfähige' System, und Xiaobing fand, befragt nach Xi Jinpings Parole vom 'Chinesischen Traum', das sei wohl eher 'ein Albtraum'. Man hörte nie wieder etwas von den beiden."