Das Gehirn und seine Gesellschaft (eBook)
172 Seiten
tredition (Verlag)
978-3-347-98729-6 (ISBN)
ADELHEID KASTNER
SABINE T. KÖSZEGI
MICHAEL MAYRHOFER
GIOVANNI RUBEIS
PODIUMSDISKUSSION „WIE VIEL ZUKUNFT HAT DAS MENSCHLICHE GEHIRN? ZUR DISKUSSION UM KÜNSTLICHE INTELLIGENZ“
Podiumsdiskussion 4 moderiert von Mari Lang
LANG: Wir wollen heute vor allem über künstliche Intelligenz sprechen, welche Chancen, Herausforderungen und Risken kommen da in Zukunft auf uns zu, und vielleicht, bevor wir reinstarten in die Diskussion, eine kleine Begriffsdefinition; ich hab mir eine rausgesucht vom Austrian Council for Robotics and Artificial Intelligence; das bezeichnet Künstliche-Intelligenz-Systeme mit einem intelligenten Verhalten, die ihre Umgebung analysieren und mit einem gewissen Grad an Autonomie handeln, um bestimmte Ziele zu erreichen.
Und vielleicht, um Sie alle ein bisschen besser einordnen zu können, würde ich Sie bitten, ein Eingangsstatement zu machen, das das heutige Thema betrifft, Wie viel Zukunft hat das menschliche Gehirn, wie sehen Sie Entwicklungen in Sachen künstlicher Intelligenz, wie sehen Sie die für die Menschheit, vor allem als Chance oder eher als Gefahr, und wirklich auf Ihren beruflichen Bereich gedacht, wo stehen Sie da, damit man kurz einmal eine Einordnung hat, und beginnen wir vielleicht einmal mit Ihnen, Herr Rubeis.
RUBEIS: Das ist eine Standard-Definition, ich würde da den ketzerischen Einwand bringen und sagen, künstliche Intelligenz ist weder künstlich noch ist sie intelligent, und wenn man von Intelligenz spricht, dann nur in einem sehr sehr schmalen, in einem sehr sehr engen Rahmen, nämlich fixiert auf bestimmte Funktionen, die wir mit menschlicher Intelligenz in Verbindung bringen. Der Begriff „künstliche Intelligenz“ stört mich ziemlich, weil beide Aspekte dieses Begriffs einfach nicht der Wahrheit entsprechen.
Deswegen finde ich den Begriff „statistischer Papagei“ viel zutreffender.
LANG: Frau Kastner, als Psychiaterin und Gerichtsgutachterin haben Sie sich viel mit der menschlichen Psyche auseinandergesetzt.
KASTNER: Ich glaube, es wird sehr viel menschliche Intelligenz brauchen, um das Schadenspotenzial der künstlichen Intelligenz einzugrenzen. So wie alles, das in die Welt kommt, zum Positiven oder zum Negativen verwendet werden kann, hat auch das ein beträchtliches Schädigungspotenzial, und ich glaub, da sollte man sich beizeiten auf die Socken machen, um entsprechendes Regelwerk zu etablieren, das die negativen Auswirkungen dieser Entwicklung hintanhält. Diese Entwicklung wird ja nicht von ungefähr von der Eurasia Group als die drittgrößte Bedrohung nach Russland und China angesehen. Wir haben anhand der rezenten geopolitisch bedeutsamen Entwicklungen gesehen, wie wenig Wissenschaft mittlerweile ankommt, wir haben gesehen, wie sehr Meinungsbildung gesteuert werden kann, wir haben gesehen, wie leicht es ist, Meinungsbildung für die eigenen Zwecke in anderen Staaten auszuhöhlen und zu instrumentalisieren, und all diese Möglichkeiten bietet Artificial Intelligence oder dieser „programmierte Papagei“ natürlich in hohem Ausmaß.
MAYRHOFER: Ich glaube, dass einerseits diese Bezeichnung als künstliche Intelligenz die Diskussion ein wenig erschwert und auf eine sehr abstrakte Ebene hebt, die es dann auch schwer greifbar macht. Wenn ich mir anseh, was in der Medizin möglich ist, in Diagnoseverfahren beispielsweise, dann sind das Chancen, wenn ich mir ansehe, welche Manipulationsmöglichkeiten da sind, und es geht tatsächlich dorthin, dass Grundfesten demokratischer Systeme und demokratischer Instrumente untergraben werden können, dann sind die Risiken enorm hoch. Abstrakt gesehen ist es ein riesiger Berg, den zu bezwingen schier unmöglich ist, und mir scheint auch, dass man ein wenig vor diesem Berg zurückscheut. Ich glaub, notwendig wird sein, dass wir uns zweierleier Dinge besinnen. Erstens einmal, das Recht geht vom Volk aus und wir sind diejenigen, die an sich die Regeln machen sollten. Es sollten keine technischen Regeln sein, sondern Regeln, die im Parlament gemacht werden. Dazu muss man schauen, wo wird welche Technik eingesetzt, und wie kann ich die Technik dort, wo sie eingesetzt wird, regeln. Und da wird es Dinge geben, die gehören verboten, und zwar schleunigst, und zwar nicht durch irgendwelche ethischen Selbstregularien, sondern vom Gesetzgeber; und dann gibt’s Dinge, die wird man in sinnvolle Rahmenbedingungen bringen, aber das wird man nur schaffen, wenn man aus diesem großen Bergwerk einzelne kleine Brocken macht, die dann auch bewältigbar sind.
LANG: Sie haben jetzt ganz klar gesagt, es wird Dinge geben, die gehören schleunigst verboten, wollen Sie ein konkretes Beispiel nennen?
MAYRHOFER: Wenn man sich ansieht, was auf EU-Ebene in Diskussion steht, leider schon sehr lange in Diskussion steht, nämlich ein Gesetz über künstliche Intelligenz, da gibt es eine Bestimmung, die rote Linien ziehen will. Unterschwellige Beeinflussungen etwa sollen verboten werden, da muss man die Frage stellen, geht das weit genug? Sollten etwa Manipulationen, die Demokratie gefährden können, auch klar verboten werden? Es ist aus meiner Sicht hoch an der Zeit, auch wenn wir, glaube ich, alle noch nicht wissen, wie tatsächlich dann effiziente Regeln passieren können. Aber einmal rote Linien zu ziehen, nach einem gewissen Vorsorgegedanken, denn wir wissen nicht zu wenig, und dementsprechend sollte mehr verboten als zugelassen werden, das hielte ich für wichtig, also zum Beispiel dort, wo KI manipulativ wirken kann. Oder dort, wo KI eingesetzt wird zur Erkennung, zur Verknüpfung von Daten, zur Modellbildung, weil an Datenverknüpfung so viel möglich ist, dass wir alle in Modelle passen und damit in Wahrheit so transparent werden. Hier wäre es aus meiner Sicht sinnvoll und notwendig, dringend rote Linien zu ziehen.
LANG: Frau Köszegi, Sie sagen ja, KI bietet uns auch ganz viele Chancen und Möglichkeiten.
KÖSZEGI: In der Öffentlichkeit findet man zwei Diskurse. Den einen haben Brynjolfsson und McAffee in Race Against the Machine definiert, wo Leistungen von Menschen mit denen von Maschine verglichen werden und wo die Angst entsteht, wenn Maschinen jetzt Bilder schon mit einer besseren Sicherheit erkennen können als Menschen oder Krebserkrankungen besser klassifizieren können als Menschen, uns im Go schlagen und im Schach - wann sind sie dann soweit, dass sie uns in der Musik ersetzen, in der Kunst ersetzen, uns als Moderator*innen, als Lehrer*innen ersetzen. Das ist der eine Diskurs. Da werden Ängste geschürt. Der andere ist, das hat auch ChatGPT super gezeigt: Auch wenn ich noch nie in meinem Leben programmieren gelernt habe, kann ich dieses Tool verwenden und für den Gesangsverein eine Homepage kreieren, und das ist wunderbar. Das ist ein ermächtigendes Tool; Menschen, die nie gelernt haben, eine Bewerbung zu schreiben, können mit dem Tool plötzlich ein super Motivations- und Bewerbungsschreiben schreiben und vielleicht am Arbeitsmarkt punkten. In diesem Diskurs geht es um Ermächtigung. Und ich glaube, dass das Problem bei beiden Narrativen ist, damit wir die Technologiefolgen abschätzen können, müssen wir diese Technologien gut entwickelt haben und schon einführen – erst dann sehen wir aber auch mögliche negative Konsequenzen. Bei der KI-Technologie ist es so. Wir konnten zum Beispiel wirklich nicht abschätzen, was Social Media für Effekte haben werden. Das hat uns komplett überrollt, auch das Hergeben privater Daten, die Möglichkeit, dass wir profiliert werden, so wie Sie das beschreiben. Das haben wir uns nicht gedacht, als Facebook auf den Markt gekommen ist, und wir konnten das nicht sehen. Und bei der KI-Technologie gibt es die Befürchtung, dass das genauso passieren wird, dass wir Entwicklungen und Anwendungen haben werden, die uns am Ende des Tages überrollen werden. Eine ganz wichtige Frage ist, die wir oft auch übersehen, weil es schwieriger zu erforschen ist: Was macht diese Technologie, wenn wir sie einsetzen, mit uns Menschen, wie verändert sie uns. Also wenn wir zum Beispiel KI-Systeme einsetzen wie den ChatGPT, was wird dann aus uns, was heißt das für uns, wenn wir beginnen, diese Technologien, diese Sprachassistenten einzusetzen. Wir anthropomorphisieren, wenn wir mit ihnen sprechen, zum Beispiel mit der Siri. Wir beginnen natürlich auch Erwartungen zu bilden, die wieder auf uns zurückreflektieren. Wir beginnen plötzlich, Erwartungen an die Maschinen zu haben, die sie nicht erfüllen können, wir glauben, dass sie vielleicht so denken wie Menschen, weil das tun wir bei Hunden ja auch, also unsere Hunde, wir wissen immer genau, was sie denken, und bei der Katze auch, sie sind ja auch eifersüchtig, Katzen, falls Sie das nicht wissen, und genauso passiert das bei Robotern, wir anthropomorphisieren sie und setzen Erwartungen in sie, die sie dann wieder auf uns zurückreflektieren. Und diesen Aspekt, den haben wir noch nicht wirklich gut angesehen, auch wenn es erste Forschungen dazu gibt.
LANG: Ich habe auch ChatGPT diese Frage gestellt. Ich hab‘s heute zum ersten Mal ausprobiert und finde, aus der Antwort auf die Frage „Sehen Sie die Entwicklung in Sachen künstliche...
| Erscheint lt. Verlag | 28.8.2023 |
|---|---|
| Reihe/Serie | Tagungsband zum Symposion Dürnstein | Tagungsband zum Symposion Dürnstein |
| Verlagsort | Ahrensburg |
| Sprache | deutsch |
| Themenwelt | Sachbuch/Ratgeber ► Geschichte / Politik ► Politik / Gesellschaft |
| Sachbuch/Ratgeber ► Sport | |
| Geisteswissenschaften ► Philosophie ► Erkenntnistheorie / Wissenschaftstheorie | |
| Geisteswissenschaften ► Philosophie ► Ethik | |
| Geisteswissenschaften ► Psychologie ► Klinische Psychologie | |
| Mathematik / Informatik ► Informatik ► Web / Internet | |
| Recht / Steuern | |
| Sozialwissenschaften ► Politik / Verwaltung | |
| Sozialwissenschaften ► Soziologie | |
| Technik | |
| Schlagworte | Biopolitik • Geheimnis menschliches Gehirn • Gehirn • Gehirn und Biopolitik • Gehirn und Gesellschaft • Gesellschaft • Hirnforschung • Intelligenz • Kreativität • Künstliche Intelligenz • menschliche Intelligenz • Nervensystem • Nervenzellen • Neuronen • Neurotechnologien • Neurowissenschaft • Plastizität des Gehirns • Schnittstellen • Sinnesorgane • Vernetzung |
| ISBN-10 | 3-347-98729-2 / 3347987292 |
| ISBN-13 | 978-3-347-98729-6 / 9783347987296 |
| Informationen gemäß Produktsicherheitsverordnung (GPSR) | |
| Haben Sie eine Frage zum Produkt? |
DRM: Digitales Wasserzeichen
Dieses eBook enthält ein digitales Wasserzeichen und ist damit für Sie personalisiert. Bei einer missbräuchlichen Weitergabe des eBooks an Dritte ist eine Rückverfolgung an die Quelle möglich.
Dateiformat: EPUB (Electronic Publication)
EPUB ist ein offener Standard für eBooks und eignet sich besonders zur Darstellung von Belletristik und Sachbüchern. Der Fließtext wird dynamisch an die Display- und Schriftgröße angepasst. Auch für mobile Lesegeräte ist EPUB daher gut geeignet.
Systemvoraussetzungen:
PC/Mac: Mit einem PC oder Mac können Sie dieses eBook lesen. Sie benötigen dafür die kostenlose Software Adobe Digital Editions.
eReader: Dieses eBook kann mit (fast) allen eBook-Readern gelesen werden. Mit dem amazon-Kindle ist es aber nicht kompatibel.
Smartphone/Tablet: Egal ob Apple oder Android, dieses eBook können Sie lesen. Sie benötigen dafür eine kostenlose App.
Geräteliste und zusätzliche Hinweise
Buying eBooks from abroad
For tax law reasons we can sell eBooks just within Germany and Switzerland. Regrettably we cannot fulfill eBook-orders from other countries.
aus dem Bereich