Künstliche Intelligenz

1956 trafen sich zehn junge US-amerikanische Wissenschaftler für einige Wochen im Dartmouth College in Hanover, New Hampshire und gründeten das Fachgebiet der Künstlichen Intelligenz (KI). Ihr erklärtes Ziel war, Computer so zu programmieren, dass sie Merkmale von Intelligenz und kognitive Prozesse simulieren wie die Nutzung von Sprache, Lernen, Abstraktion, Kreativität, Problemlösen, Konzeptentwicklung und Selbstverbesserung. Schon damals galt das aus den 1940er-Jahren stammende Konzept der künstlichen neuronalen Netze als eine vielversprechende methodische Grundlage, die in den letzten Jahren so viel Furore gemacht hat. An den Zielen hat sich seit den Anfängen gar nicht allzu viel verändert, die Relevanz für uns und die Gesellschaft ist aber drastisch gestieben.

Ein neuronales Netz kommt aus der Spitze eines Elfenbeinturms, über den Köpfen einer Menge von Menschen. Einige von ihnen greifen nach oben, um zu versuchen, die Kontrolle zu übernehmen und das Netz zu sich herunterzuziehen. Aquarellierte Illustration.

We and AI

CC BY Jamillah Knowles – https://betterimagesofai.org

Die ersten 25 Jahre der KI-Geschichte sind geprägt von einigen Erfolgen bei Mustererkennung sowie bei mathematischen Beweis- und Expertensystemen, die nach Art logischer Schlussregeln arbeiten. Aufsehen erregt hat auch das System ELIZA von Joseph Weizenbaum (1966), das ein Stück weit natürlich-sprachliche Kommunikation zwischen Mensch und Computer anhand einfacher Regeln imitiert und dadurch "intelligent" wirkte. Wegen der damaligen technischen Beschränkungen stießen viele Anwendungsversuche schnell an ihre Grenzen und Enttäuschung machte sich breit. Die KI-Entwicklung erhielt aber durch das japanische 5th-Generation-Computer-Programm und die US-amerikanische Antwort mit der Strategic Computing Initiative (SCI) in den 1880er-Jahren einen gewaltigen Schub, nicht zuletzt wegen der verfügbaren Finanzmittel von mehreren 100 Millionen US-Dollar. Das zivil angelegte japanische Projekt setzte methodisch auf logische Programmierung für wissensbasierte Systeme, während SCI auf drei militärische Anwendungen mit einem Sprachassistenten für die Luftwaffe, einem Schlachtenmanagementsystem für die Marine und mit autonomen Vehikeln für das Heer fokussiert war. Die zehnjährige Laufzeit von SCI und die verfügbaren technischen Möglichkeiten haben nicht gereicht, um solche Systeme funktionsfähig zu entwickeln. Heutzutage – rund 40 Jahre später – ist vieles davon umgesetzt.

Die bedeutenden Erfolge der KI sind vor allem in diesem Jahrhundert zustande gekommen und maßgeblich beeinflusst durch die wesentlich verbesserten technischen Grundlagen: sehr viel schnellere Rechner, gewaltige Speicherkapazitäten und grundlegend verbesserte (Lern-) Algorithmen. Zu erwähnen sind eindrucksvolle Leistungen bei der Mustererkennung, bei der Sprachübersetzung, bei der Generierung von Sprache und Bildern sowie bei Spielen wie zum Beipsiel GO oder Dota 2. Zu erwarten sind Fortschritte in der Medizin, Verwaltung und Produktion sowie im Verkehr. KI gilt als Schlüsseltechnologie künftiger Wertschöpfung, so dass viele Staaten der Welt KI-Förderprogramme aufgesetzt haben. Zusammen mit den Milliarden der großen KI-Unternehmen werden aktuell horrende Geld- und Personalmittel für die KI-Entwicklung aufgewendet. Ein großer Teil davon wird in die staatliche Überwachung, in die Manipulation von Medieninhalten und in die KI-tisierung des Kriegs gesteckt. Stattdessen wäre es wünschenswert, wenn KI helfen könnte, die großen Probleme der Menschheit wie den Klimawandel, Armut, Hunger, Fluchtbewegungen und Krieg zu lösen.

Ein spezieller Aspekt von KI bedarf besonderer Aufmerksamkeit. Während konkrete KI-Entwicklungen auf Programmsysteme und Roboter gerichtet sind, die einzelne spezifische kognitive Fähigkeiten maschinell realisieren, werden in einer kleinen Strömung die Künstliche Allgemeine Intelligenz (auch oft starke KI genannt) superintelligente Maschinen propagiert, die so intelligent sind wie Menschen oder sogar intelligenter. Es gibt eine Reihe Sachbücher zu dem Thema. Ein Teil der transhumanistischen Bewegung setzt auf diese starke KI als Ablösung der "alten, überholten, nicht mehr zeitgemäßen" Menschheit. Aber auch eine Reihe von KI-Fachleuten bis hin zu Nobelpreisträgern und viele Führungskräfte der großen IT-Unternehmen formulieren wiederholt, dass solche Maschinen sehr bald möglich seien und dann eventuell große Gefahren für die Menschheit von ihnen ausgingen.

Heutige KI-Systeme basieren auf Algorithmen, die anhand von Trainings- und Testdaten Zusammenhänge erkennen „lernen“. Wenn in den genutzten Daten die Realität verzerrt ist, ein Bias in den Daten enthalten ist, werden durch die Nutzung des KI-Modells diese Verzerrungen wiedergegeben - ggf. vorhandene Diskriminierungen und Vorurteile werden mitgelernt. Auch das (nachträgliche) Entfernen von in den Lerndaten enthalten Bias funktioniert bisher nicht vollständig und die konkreten Auswirkungen sind schwer abschätzbar.

Bei den aktuellen KI-Systemen, die nun in ganz verschiedenen Kontexten auch praktisch eingesetzt werden, führt die Frage „Wer trägt welche Verantwortung“ zu ganz neuen Herausforderungen. Die Verantwortungsfrage muss aber vor dem Einsatz eines jeden KI-Systems geklärt werden.

Das FIfF beobachtet und begleitet kritisch die Entwicklung und den Einsatz der Künstlichen Intelligenz.

  • Welche Erwartungen werden an KI gestellt, wie realistisch sind sie überhaupt und welche besonderen Risiken sind durch KI zu befürchten? Dies wird etwa in den FIfF-Kommunikationen 1/2020,  2/2022, 4/2024 fortlaufend thematisiert. Die Beiträge beziehen sich auf gegenwärtige Anwendungsbereiche der KI unter Aspekten wie Unternehmen, Arbeitsplätze, Arbeitsalltag, Frauenperspektive, ökologische Nachhaltigkeit, Globalisierung, Militär und Krieg.

  • Große Sprachmodelle (engl. Large Language Models - LLM) wurden Ende 2022 breit bekannt. Sie verwenden die statistischen Methoden der KI zum Generieren von Texten; beispielsweise das zuerst bekannt gewordene ChatGPT, mit dem sich auch Gespräche in natürlicher Sprache führen lassen. Problematisierungen der Nutzung von KI, insbesondere der generativen Modelle, enthalten die Vorträge Cyberangriffe mit ChatGPT und generativer KI und Was man über die Ökonomie der generativen KI wissen sollte auf der FIfF-Konferenz 2023.

  • Mit der militärischen Nutzung von Informatik und insbesondere von KI setzt sich das FIfF seit langem besonders auseinander. Welche Auswirkungen die sogenannten gezielten Tötungen (Targeted Killing) der israelischen Militäreinsätze haben und warum sie als Kriegsverbrechen einzustufen sind, thematisiert das FIfF seit Anfang 2024. Gemeinsam haben das FIfF, der Arbeitskreis gegen bewaffnete Drohnen sowie die Informationsstelle Militarisierung (IMI) im April 2024 eine Stellungnahme dazu veröffentlicht. Im November 2024 fand unter Beteiligung des FIfF ein Online-Hearing Targeted Killing oder das Versprechen, die 'Richtigen' zu treffen statt. Ergänzend veröffentlicht ist ein Reader zum Hearing.

  • Die unheilvolle Verquickung von KI mit dem militärischen Komplex wird auch in dem Memorandum Informatiker:innen für Frieden zum 40-jährigen bestehen des FIfF thematisiert.

Der Rat der 27 EU-Mitgliedstaaten hat zwar am 21. Mai 2024 den AI Act (KI-Gesetz) und damit einen einheitlichen Rahmen für den Einsatz von Künstlicher Intelligenz in der Europäischen Union verabschiedet. Neben der Frage, ob die Vorschriften für Hochrisiko-Systeme adäquat sind oder überhaupt klar ist, wann ein KI-System ein Hochrisiko-System ist, fehlt auch ein sinnvoller Umgang der Regierungen in Deutschland mit diesem AI Act. Dies ist erkennbar, wenn „Die Bundesregierung, Polizeibehörden und auch das Bundesamt für Migration und Flucht mit neuen Befugnissen für die biometrische Gesichtersuche im Netz ausstatten (will). Aber darf sie das überhaupt? Mit den neuen EU-Regeln für den Einsatz von KI ist das kaum unter einen Hut zu bringen.

Aktivitäten zu diesem Thema

Podcast/Vortrag

Militarisierung über KI-Sprachmodelle und ‚soziale‘ Medien

KI im Krieg: Aus ChatGPT wird im Gazastreifen ein tödliches Waffensystem. Big Tech gestaltet so nicht nur unseren Alltag, sondern auch Kriege und Krisen – mit fatalen Folgen für Zivilgesellschaft und Widerstand. KI im Krieg: Aus ChatGPT wird im Gazastreifen ein tödliches Waffensystem. Big Tech gestaltet so nicht nur unseren Alltag, sondern auch Kriege und Krisen – mit fatalen Folgen für Zivilgesellschaft und Widerstand.

weiterlesen

Event

FIfF-Konferenz 2023

Cyberpeace, Nachhaltigkeit und KI Cyberpeace, Nachhaltigkeit und KI

weiterlesen

Illustration einer Szene im Stil von ‚Alice im Wunderland‘: Ein Mädchen steht mit einem Kaninchen vor einem großen, ornamentierten Spiegel, der von Rauchschwaden umgeben ist. Im Spiegel erscheint eine futuristische Welt mit einem großen Roboter, einer Drohne und einer gewölbten technischen Struktur, die an ein digitales Interface erinnert.
Event

FIfF-Konferenz 2019

Künstliche Intelligenz als Wunderland Künstliche Intelligenz als Wunderland

weiterlesen

Publikationen zu diesem Thema

Cover der FIfF-Kommunikation 4/2024

FIfF-Kommunikation 4/2024

Künstliche Intelligenz zwischen euphorischen Erwartungen und dystopischen Szenarien Künstliche Intelligenz zwischen euphorischen Erwartungen und dystopischen Szenarien

weiterlesen

Cover der FIfF-Kommunikation 2/2022

FIfF-Kommunikation 2/2022

Künstliche Intelligenz Künstliche Intelligenz

weiterlesen

Cover der FIfF-Kommunikation 4/2021

FIfF-Kommunikation 4/2021

Künstliche Intelligenz zieht in den Krieg Künstliche Intelligenz zieht in den Krieg

weiterlesen

Cover der FIfF-Kommunikation 1/2020

FIfF-Kommunikation 1/2020

FIfFKon19 – KI als Wunderland FIfFKon19 – KI als Wunderland

weiterlesen

Meldungen und Posts zu diesem Thema

Positionspapier

KI im Krieg senkt die Tötungshemmschwelle

29.04.2024

Der Einsatz von Lavender und Co. sind als Kriegsverbrechen einzustufen. Der Einsatz von Lavender und Co. sind als Kriegsverbrechen einzustufen.

weiterlesen

SZ-Interview: Wenn Waffen das Töten lernen - Ethik im IT-Zeitalter

16.08.2011

SZ-Interview: Wenn Waffen das Töten lernen - Ethik im IT-Zeitalter SZ-Interview: Wenn Waffen das Töten lernen - Ethik im IT-Zeitalter

weiterlesen

Ansprechpersonen zum Thema

weitere Menschen, die sich mit Künstliche Intelligenz beschäftigen

Verwandte Themen

Eine detaillierte digitale Collage, inspiriert von der Ästhetik mittelalterlicher Manuskriptillustrationen, zeigt eine lebhafte Szene von Bauarbeitern, die ein Gebäude errichten. Traditionelle Elemente wie Figuren in traditionellen persischen Gewändern, Holzleitern, Seile und gewebte Säcke sind mit modernen technologischen Motiven wie Leiterplatten und QR-Codes verwoben. Helle, leuchtende, goldene Netzwerke aus miteinander verbundenen Knotenpunkten und Symbolen der digitalen Technologie überlagern die Szene und verschmelzen Vergangenheit und Gegenwart. Die Komposition verwendet kontrastierende Texturen und Farben, um die Themen und Epochen gegenüberzustellen und miteinander zu verweben.

Bildung, Diskurs und Mythen

Oft verklären Mythen und magische Zuschreibungen einen klaren Blick auf neue Technologien, wie beispielsweise bei der Künstlichen Intelligenz (KI). Das FIfF macht reale Möglichkeiten, aber auch Grenzen technischer Entwicklungen deutlich. Oft verklären Mythen und magische Zuschreibungen einen klaren Blick auf neue Technologien, wie beispielsweise bei der Künstlichen Intelligenz (KI). Das FIfF macht reale Möglichkeiten, aber auch Grenzen technischer Entwicklungen deutlich.

Vertiefendes zu diesem Thema

Komplexität von IT-Systemen Komplexität informationstechnischer Systeme

Ambitionierte und komplexe IT-Systeme haben eine Vielzahl an gesellschaftlichen Implikationen und bergen Risiken hinsichtlich ihrer Nutzung, weswegen das FIfF die Entwicklungen kritisch begleitet und die Frage nach der Verantwortbarkeit stellt. Ambitionierte und komplexe IT-Systeme haben eine Vielzahl an gesellschaftlichen Implikationen und bergen Risiken hinsichtlich ihrer Nutzung, weswegen das FIfF die Entwicklungen kritisch begleitet und die Frage nach der Verantwortbarkeit stellt.

Vertiefendes zu diesem Thema