Zum Hauptinhalt springen
Nicht aus der Schweiz? Besuchen Sie lehmanns.de

Das Gehirn und seine Gesellschaft (eBook)

Tagungsband zum Symposion Dürnstein 2023
eBook Download: EPUB
2023 | 1. Auflage
172 Seiten
tredition (Verlag)
978-3-347-98729-6 (ISBN)

Lese- und Medienproben

Das Gehirn und seine Gesellschaft -  Symposion Dürnstein
Systemvoraussetzungen
6,99 inkl. MwSt
(CHF 6,80)
Der eBook-Verkauf erfolgt durch die Lehmanns Media GmbH (Berlin) zum Preis in Euro inkl. MwSt.
  • Download sofort lieferbar
  • Zahlungsarten anzeigen
Dieser Tagungsband dokumentiert das Symposion Dürnstein 2023, das zum Thema DAS GERHIN UND SEINE GESELLSCHAFT vom 23. - 25. März in Dürnstein in Niederösterreich stattfand. Er beinhaltet Vorträge und Diskussionsrunden dieses Events. Das Symposion Dürnstein versteht sich als internationaler Gedankenaustausch, als Ort, an dem Menschen mit verschiedensten Ansichten, Haltungen, Religionen und Weltanschauungen einander zu Austausch und Diskurs treffen können. Es findet jährlich zu einer anderen Themenstellung statt. Das 12. Symposion Dürnstein widmete sich einem der nach wie vor größten Geheimnisse der Menschheit - dem 'Wunderwerk Gehirn'. Internationale Expertinnen und Experten aus unterschiedlichsten Forschungsbereichen präsentierten neueste Erkenntnisse über die zu einem großen Teil noch rätselhaften Funktionsweisen und Möglichkeiten des Gehirns. Dabei stand die Wechselwirkung zwischen aktuellen Erkenntnissen der Neuroforschung und der Gesellschaft im Mittelpunkt, wie zum Beispiel: Welche äußeren Einflüsse prägen das Gehirn, die Plastizität unseres Gehirns, wie entstehen Emotionen und Kreativität, welche Rolle spielt die Genetik und in welche Richtung gehen die Entwicklungen unter dem Stichwort 'Künstliche Intelligenz'? Der inhaltliche Bogen war weit gespannt und reichte vom Einfluss der Meditation auf das Gehirn über das Spannungsfeld von Recht und Neurobiologie bis hin zu Regeln für die Ethik zukünftiger KI-Systeme.

ADELHEID KASTNER

SABINE T. KÖSZEGI

MICHAEL MAYRHOFER

GIOVANNI RUBEIS

PODIUMSDISKUSSION „WIE VIEL ZUKUNFT HAT DAS MENSCHLICHE GEHIRN? ZUR DISKUSSION UM KÜNSTLICHE INTELLIGENZ“

Podiumsdiskussion 4 moderiert von Mari Lang

LANG: Wir wollen heute vor allem über künstliche Intelligenz sprechen, welche Chancen, Herausforderungen und Risken kommen da in Zukunft auf uns zu, und vielleicht, bevor wir reinstarten in die Diskussion, eine kleine Begriffsdefinition; ich hab mir eine rausgesucht vom Austrian Council for Robotics and Artificial Intelligence; das bezeichnet Künstliche-Intelligenz-Systeme mit einem intelligenten Verhalten, die ihre Umgebung analysieren und mit einem gewissen Grad an Autonomie handeln, um bestimmte Ziele zu erreichen.

Und vielleicht, um Sie alle ein bisschen besser einordnen zu können, würde ich Sie bitten, ein Eingangsstatement zu machen, das das heutige Thema betrifft, Wie viel Zukunft hat das menschliche Gehirn, wie sehen Sie Entwicklungen in Sachen künstlicher Intelligenz, wie sehen Sie die für die Menschheit, vor allem als Chance oder eher als Gefahr, und wirklich auf Ihren beruflichen Bereich gedacht, wo stehen Sie da, damit man kurz einmal eine Einordnung hat, und beginnen wir vielleicht einmal mit Ihnen, Herr Rubeis.

RUBEIS: Das ist eine Standard-Definition, ich würde da den ketzerischen Einwand bringen und sagen, künstliche Intelligenz ist weder künstlich noch ist sie intelligent, und wenn man von Intelligenz spricht, dann nur in einem sehr sehr schmalen, in einem sehr sehr engen Rahmen, nämlich fixiert auf bestimmte Funktionen, die wir mit menschlicher Intelligenz in Verbindung bringen. Der Begriff „künstliche Intelligenz“ stört mich ziemlich, weil beide Aspekte dieses Begriffs einfach nicht der Wahrheit entsprechen.

Deswegen finde ich den Begriff „statistischer Papagei“ viel zutreffender.

LANG: Frau Kastner, als Psychiaterin und Gerichtsgutachterin haben Sie sich viel mit der menschlichen Psyche auseinandergesetzt.

KASTNER: Ich glaube, es wird sehr viel menschliche Intelligenz brauchen, um das Schadenspotenzial der künstlichen Intelligenz einzugrenzen. So wie alles, das in die Welt kommt, zum Positiven oder zum Negativen verwendet werden kann, hat auch das ein beträchtliches Schädigungspotenzial, und ich glaub, da sollte man sich beizeiten auf die Socken machen, um entsprechendes Regelwerk zu etablieren, das die negativen Auswirkungen dieser Entwicklung hintanhält. Diese Entwicklung wird ja nicht von ungefähr von der Eurasia Group als die drittgrößte Bedrohung nach Russland und China angesehen. Wir haben anhand der rezenten geopolitisch bedeutsamen Entwicklungen gesehen, wie wenig Wissenschaft mittlerweile ankommt, wir haben gesehen, wie sehr Meinungsbildung gesteuert werden kann, wir haben gesehen, wie leicht es ist, Meinungsbildung für die eigenen Zwecke in anderen Staaten auszuhöhlen und zu instrumentalisieren, und all diese Möglichkeiten bietet Artificial Intelligence oder dieser „programmierte Papagei“ natürlich in hohem Ausmaß.

MAYRHOFER: Ich glaube, dass einerseits diese Bezeichnung als künstliche Intelligenz die Diskussion ein wenig erschwert und auf eine sehr abstrakte Ebene hebt, die es dann auch schwer greifbar macht. Wenn ich mir anseh, was in der Medizin möglich ist, in Diagnoseverfahren beispielsweise, dann sind das Chancen, wenn ich mir ansehe, welche Manipulationsmöglichkeiten da sind, und es geht tatsächlich dorthin, dass Grundfesten demokratischer Systeme und demokratischer Instrumente untergraben werden können, dann sind die Risiken enorm hoch. Abstrakt gesehen ist es ein riesiger Berg, den zu bezwingen schier unmöglich ist, und mir scheint auch, dass man ein wenig vor diesem Berg zurückscheut. Ich glaub, notwendig wird sein, dass wir uns zweierleier Dinge besinnen. Erstens einmal, das Recht geht vom Volk aus und wir sind diejenigen, die an sich die Regeln machen sollten. Es sollten keine technischen Regeln sein, sondern Regeln, die im Parlament gemacht werden. Dazu muss man schauen, wo wird welche Technik eingesetzt, und wie kann ich die Technik dort, wo sie eingesetzt wird, regeln. Und da wird es Dinge geben, die gehören verboten, und zwar schleunigst, und zwar nicht durch irgendwelche ethischen Selbstregularien, sondern vom Gesetzgeber; und dann gibt’s Dinge, die wird man in sinnvolle Rahmenbedingungen bringen, aber das wird man nur schaffen, wenn man aus diesem großen Bergwerk einzelne kleine Brocken macht, die dann auch bewältigbar sind.

LANG: Sie haben jetzt ganz klar gesagt, es wird Dinge geben, die gehören schleunigst verboten, wollen Sie ein konkretes Beispiel nennen?

MAYRHOFER: Wenn man sich ansieht, was auf EU-Ebene in Diskussion steht, leider schon sehr lange in Diskussion steht, nämlich ein Gesetz über künstliche Intelligenz, da gibt es eine Bestimmung, die rote Linien ziehen will. Unterschwellige Beeinflussungen etwa sollen verboten werden, da muss man die Frage stellen, geht das weit genug? Sollten etwa Manipulationen, die Demokratie gefährden können, auch klar verboten werden? Es ist aus meiner Sicht hoch an der Zeit, auch wenn wir, glaube ich, alle noch nicht wissen, wie tatsächlich dann effiziente Regeln passieren können. Aber einmal rote Linien zu ziehen, nach einem gewissen Vorsorgegedanken, denn wir wissen nicht zu wenig, und dementsprechend sollte mehr verboten als zugelassen werden, das hielte ich für wichtig, also zum Beispiel dort, wo KI manipulativ wirken kann. Oder dort, wo KI eingesetzt wird zur Erkennung, zur Verknüpfung von Daten, zur Modellbildung, weil an Datenverknüpfung so viel möglich ist, dass wir alle in Modelle passen und damit in Wahrheit so transparent werden. Hier wäre es aus meiner Sicht sinnvoll und notwendig, dringend rote Linien zu ziehen.

LANG: Frau Köszegi, Sie sagen ja, KI bietet uns auch ganz viele Chancen und Möglichkeiten.

KÖSZEGI: In der Öffentlichkeit findet man zwei Diskurse. Den einen haben Brynjolfsson und McAffee in Race Against the Machine definiert, wo Leistungen von Menschen mit denen von Maschine verglichen werden und wo die Angst entsteht, wenn Maschinen jetzt Bilder schon mit einer besseren Sicherheit erkennen können als Menschen oder Krebserkrankungen besser klassifizieren können als Menschen, uns im Go schlagen und im Schach - wann sind sie dann soweit, dass sie uns in der Musik ersetzen, in der Kunst ersetzen, uns als Moderator*innen, als Lehrer*innen ersetzen. Das ist der eine Diskurs. Da werden Ängste geschürt. Der andere ist, das hat auch ChatGPT super gezeigt: Auch wenn ich noch nie in meinem Leben programmieren gelernt habe, kann ich dieses Tool verwenden und für den Gesangsverein eine Homepage kreieren, und das ist wunderbar. Das ist ein ermächtigendes Tool; Menschen, die nie gelernt haben, eine Bewerbung zu schreiben, können mit dem Tool plötzlich ein super Motivations- und Bewerbungsschreiben schreiben und vielleicht am Arbeitsmarkt punkten. In diesem Diskurs geht es um Ermächtigung. Und ich glaube, dass das Problem bei beiden Narrativen ist, damit wir die Technologiefolgen abschätzen können, müssen wir diese Technologien gut entwickelt haben und schon einführen – erst dann sehen wir aber auch mögliche negative Konsequenzen. Bei der KI-Technologie ist es so. Wir konnten zum Beispiel wirklich nicht abschätzen, was Social Media für Effekte haben werden. Das hat uns komplett überrollt, auch das Hergeben privater Daten, die Möglichkeit, dass wir profiliert werden, so wie Sie das beschreiben. Das haben wir uns nicht gedacht, als Facebook auf den Markt gekommen ist, und wir konnten das nicht sehen. Und bei der KI-Technologie gibt es die Befürchtung, dass das genauso passieren wird, dass wir Entwicklungen und Anwendungen haben werden, die uns am Ende des Tages überrollen werden. Eine ganz wichtige Frage ist, die wir oft auch übersehen, weil es schwieriger zu erforschen ist: Was macht diese Technologie, wenn wir sie einsetzen, mit uns Menschen, wie verändert sie uns. Also wenn wir zum Beispiel KI-Systeme einsetzen wie den ChatGPT, was wird dann aus uns, was heißt das für uns, wenn wir beginnen, diese Technologien, diese Sprachassistenten einzusetzen. Wir anthropomorphisieren, wenn wir mit ihnen sprechen, zum Beispiel mit der Siri. Wir beginnen natürlich auch Erwartungen zu bilden, die wieder auf uns zurückreflektieren. Wir beginnen plötzlich, Erwartungen an die Maschinen zu haben, die sie nicht erfüllen können, wir glauben, dass sie vielleicht so denken wie Menschen, weil das tun wir bei Hunden ja auch, also unsere Hunde, wir wissen immer genau, was sie denken, und bei der Katze auch, sie sind ja auch eifersüchtig, Katzen, falls Sie das nicht wissen, und genauso passiert das bei Robotern, wir anthropomorphisieren sie und setzen Erwartungen in sie, die sie dann wieder auf uns zurückreflektieren. Und diesen Aspekt, den haben wir noch nicht wirklich gut angesehen, auch wenn es erste Forschungen dazu gibt.

LANG: Ich habe auch ChatGPT diese Frage gestellt. Ich hab‘s heute zum ersten Mal ausprobiert und finde, aus der Antwort auf die Frage „Sehen Sie die Entwicklung in Sachen künstliche...

Erscheint lt. Verlag 28.8.2023
Reihe/Serie Tagungsband zum Symposion Dürnstein
Tagungsband zum Symposion Dürnstein
Verlagsort Ahrensburg
Sprache deutsch
Themenwelt Sachbuch/Ratgeber Geschichte / Politik Politik / Gesellschaft
Sachbuch/Ratgeber Sport
Geisteswissenschaften Philosophie Erkenntnistheorie / Wissenschaftstheorie
Geisteswissenschaften Philosophie Ethik
Geisteswissenschaften Psychologie Klinische Psychologie
Mathematik / Informatik Informatik Web / Internet
Recht / Steuern
Sozialwissenschaften Politik / Verwaltung
Sozialwissenschaften Soziologie
Technik
Schlagworte Biopolitik • Geheimnis menschliches Gehirn • Gehirn • Gehirn und Biopolitik • Gehirn und Gesellschaft • Gesellschaft • Hirnforschung • Intelligenz • Kreativität • Künstliche Intelligenz • menschliche Intelligenz • Nervensystem • Nervenzellen • Neuronen • Neurotechnologien • Neurowissenschaft • Plastizität des Gehirns • Schnittstellen • Sinnesorgane • Vernetzung
ISBN-10 3-347-98729-2 / 3347987292
ISBN-13 978-3-347-98729-6 / 9783347987296
Informationen gemäß Produktsicherheitsverordnung (GPSR)
Haben Sie eine Frage zum Produkt?
EPUBEPUB (Wasserzeichen)

DRM: Digitales Wasserzeichen
Dieses eBook enthält ein digitales Wasser­zeichen und ist damit für Sie persona­lisiert. Bei einer missbräuch­lichen Weiter­gabe des eBooks an Dritte ist eine Rück­ver­folgung an die Quelle möglich.

Dateiformat: EPUB (Electronic Publication)
EPUB ist ein offener Standard für eBooks und eignet sich besonders zur Darstellung von Belle­tristik und Sach­büchern. Der Fließ­text wird dynamisch an die Display- und Schrift­größe ange­passt. Auch für mobile Lese­geräte ist EPUB daher gut geeignet.

Systemvoraussetzungen:
PC/Mac: Mit einem PC oder Mac können Sie dieses eBook lesen. Sie benötigen dafür die kostenlose Software Adobe Digital Editions.
eReader: Dieses eBook kann mit (fast) allen eBook-Readern gelesen werden. Mit dem amazon-Kindle ist es aber nicht kompatibel.
Smartphone/Tablet: Egal ob Apple oder Android, dieses eBook können Sie lesen. Sie benötigen dafür eine kostenlose App.
Geräteliste und zusätzliche Hinweise

Buying eBooks from abroad
For tax law reasons we can sell eBooks just within Germany and Switzerland. Regrettably we cannot fulfill eBook-orders from other countries.

Mehr entdecken
aus dem Bereich
Mit Beiträgen von Christian Baron, Dietmar Dath, Aladin El-Mafaalani, …

von Wolfgang M. Schmitt; Ann-Kristin Tlusty

eBook Download (2024)
Carl Hanser Verlag GmbH & Co. KG
CHF 16,60
Die großen Fragen ethisch entscheiden

von Alena Buyx

eBook Download (2025)
Fischer E-Books (Verlag)
CHF 19,50