Macht der Mensch sich überflüssig?
Schon in den 1960er- und 1970er-Jahren waren Forschung und Entwicklung im Bereich künstlicher Intelligenz (KI) hoch angesagt: Vordenker wie der 2008 verstorbene Joseph Weizenbaum vom MIT, gehörten damals zu den Aushängeschildern dieser Forschungsrichtung. Doch so richtig wollte die KI zunächst nicht abheben: Es fehlte schlichtweg noch an der nötigen Rechen-Power und so wurde es nach viel beachteten, ersten Entwicklungserfolgen dann im Laufe der Jahre wieder etwas ruhiger um dieses Thema.
Doch in jüngster Zeit hat sich das verändert, denn die Forschung ist natürlich weitergegangen und die technischen Voraussetzungen für KI-Anwendungen haben sich dramatisch verbessert. Indizien dafür sind im Alltagsleben angekommen: So kann man heute etwa mit seinem Handy sprechen und auf diese Weise cloud-basiert nach Informationen suchen, die auf Basis früherer Abfragen und Aktionen des Anwenders vorgefiltert wurden. Ein anderes Beispiel kann man darin sehen, dass Firmen wie Google an selbstfahrenden, autonom und automatisiert agierenden Transportmitteln arbeiten.
Mit immer schnelleren Prozessoren, neuen Software-Architekturen und Cloud Services, stehen den innovativen Köpfen im Silicon Valley technische Mittel zur Verfügung, mit denen sich schon jetzt oder in kurzer Zeitspanne, vieles von den Utopien der KI-Vorreiter umsetzen lässt.
Wo Chancen sind, gibt es in aller Regel auch Risiken. So mahnte Joseph Weizenbaum etwa schon Ende der 60er Jahre einen kritischen Umgang mit KI an. Apple-Mitbegründer Steve Wozniak äußerte in diesem Jahr in einem Interview die Sorge, dass die rasche Entwicklung und Implementierung von KI für die Menschen auch unangenehm werden könnte. »Woz« verwies dabei auch auf Ray Kurzweil, den wichtigsten Vordenker und Entwickler bei Google, der prognostiziert, dass die Fähigkeiten von Computern bis in 30 Jahren eine Intelligenz erreichen, die der von Menschen überlegen sein werde.
Wie real und verbreitet Projekte zum Thema künstliche Intelligenz schon jetzt sind, wurde dieser Tage deutlich, als Tausende KI-Forscher und Technologie-Vorreiter in einem offenen Brief davor warnten, KI-Systeme zum Bau autonom agierender Waffensysteme zu verwenden: für Kampfroboter und Drohnen also, die eigenständig die Entscheidung treffen, zu töten.
Zu den Mitinitiatoren des Briefs der Mahner gehört der Tesla- und SpaceX-Gründer Elon Musk, viele bekannte Forscher und Experten unterzeichneten den Brief, etwa Apple-Mitbegründer Steve Wozniak und der weltberühmte Forscher Stephen Hawking.
Aus Sicht der Unterzeichner sind wir technologisch so weit, dass solche Waffensysteme innerhalb einiger weniger Jahre (und nicht erst innerhalb von Jahrzehnten) machbar sind. Die Urheber und Unterzeichner des Briefs fordern deshalb, dass es für solche Waffensysteme ähnliche internationale Regelungen geben müsse wie jene, auf die man sich weltweit bei biologischen und chemischen Waffen verständigt hat.
Wie weit die Entwicklung autonomer KI-Waffensysteme de facto schon fortgeschritten ist, das wissen tatsächlich wohl nur vergleichsweise wenige Menschen — die sich in der Regel dazu auch nicht offen äußern, sondern im Geheimen agieren. Da aber traditionell im Militärbereich stets umfassende finanzielle Mittel für die Entwicklung und Anschaffung neuer Waffensysteme zur Verfügung stehen, ist es wahrscheinlich nicht übertrieben, Schlimmes zu befürchten. Dass Maschinen vollkommen frei von Gefühlen, von Moral, von Ethik und Empathie, auf der Basis von Rechenoperationen Leben auslöschen — das scheint mittlerweile nicht mehr nur theoretisch denkbar.
Man braucht also nicht viel Fantasie, um die Dringlichkeit des Appells der KI-Forscher und -Experten zu erkennen.
Sie werden sehen.
Empfehlungen der Redaktion: