Akademische Debatte

KI entwickelte Giftgas: Wie real ist die Gefahr?

Elektronik
01.06.2022 10:13

Sie nennen es „Weckruf“: Forschende einer US-Pharmafirma haben mit maschinellem Lernen eine Software toxische Moleküle entwickeln lassen, die Chemiewaffenpotenzial haben. In knapp sechs Stunden hatten sie 40.000 Moleküle - im Modell. Bis daraus giftige Substanzen entstehen, die etwa in Form von Gasangriffen als Waffe eingesetzt werden könnten, braucht es zwar noch einige Schritte. Aber die Wissenschaftler warnen im Magazin „Nature Machine Intelligence“: „Die Realität ist, dass dies keine Science-Fiction ist.“

Collaborations Pharmaceuticals sei nur ein kleines Unternehmen in einem Universum von Hunderten Firmen, die Künstliche Intelligenz (KI) etwa zur Wirkstoffforschung verwenden. Wie viele von ihnen hätten wohl daran gedacht, Dinge mit ihren Möglichkeiten umzufunktionieren oder gar zu missbrauchen, fragen die Autoren. Wächst mit technologischen Fortschritten wie KI die Gefahr für neue Waffen, die krank machen, ganze Körperfunktionen lahmlegen oder sogar Lebewesen töten?

Kein Grund zur Panik
Es gebe keinen Grund zur Panik, sagt Politikwissenschaftler Frank Sauer von der Universität der Bundeswehr München. „Aber das Risiko ist da.“ Gerade auf diesem Gebiet sei das sogenannte Dual-Use-Problem voll ausgeprägt: dass Technologien oder Güter sowohl zu zivilen als auch zu militärischen Zwecken genutzt werden können.

Naturwissenschaften seien gut im Datensammeln, sagt Alexander Schug vom Steinbuch Centre for Computing am Karlsruher Institut für Technologie. Etwa für Medikamente und Proteinstrukturen gebe es gut aufbereitete Datenbanken, viele davon öffentlich zugänglich. „Das macht sie prädestiniert für KI.“ Doch auch ein guter Programmierer müsste sich in die Struktur der Datensätze hineinfinden, sagt Schug. „Das ist im Moment alles auf einem sehr theoretischen Level.“ Neben ausreichend Training bräuchte es zudem genügend Rechnerkapazität. „Mit Grafikkarten kann man tolle Berechnungen anstellen, aber nicht richtig große Rechnungen.“

Zitat Icon

Das könnte schon eine neue Art der Gefährdung sein, wenn neue Gifte und neue Synthesewege am Computer entwickelt werden.

Alexander Schug, Steinbuch Centre for Computing

Zwar räumt Schug ein: „Das könnte schon eine neue Art der Gefährdung sein, wenn neue Gifte und neue Synthesewege am Computer entwickelt werden.“ Aber die große Frage sei immer, ob man die Stoffe überhaupt synthetisieren - also herstellen - könnte. Manche Verbindungen halten vielleicht nicht, in anderen Fällen mangelt es an Rohstoffen.

KI-designte Moleküle als giftiges Gas
Davon abhängig wäre auch der mögliche Einsatz: KI-designte Moleküle als giftiges Gas, das Zellen über Atemwege angreift? Als unsichtbare Substanz, die man beim Anpacken von Gegenständen aufnimmt? Oder manipulierte Erreger, die über Trinkwassersysteme verbreitet werden?

Der internationale Abrüstungsberater Ralf Trapp spricht von einer „ganzen Kette von Dingen“, die nötig seien, bevor etwas militärisch verwendbar sei. Zwar verkürzten die technischen Möglichkeiten die Zeit, bis etwas auf den Markt kommt - das habe man auch bei der Entwicklung der Corona-Impfstoffe gesehen. Aber die Umsetzung als Waffe erfordere dann doch mehr Ressourcen. „Was im Labor passiert, ist das eine. Was daraus werden kann, ist etwas ganz Anderes“, sagt Trapp. „Das heißt nicht, dass wir uns keine Sorgen machen müssen, es ist immer ein Wettlauf mit der Zeit.“

Zitat Icon

Nicht jedem Wissenschaftler ist bewusst, dass die Forschung auch zweckentfremdet werden kann.

Abrüstungsberater Ralf Trapp

Laut Una Jakob von der Hessischen Stiftung Friedens- und Konfliktforschung wächst das Bewusstsein für die potenzielle Gefahr. Aus ihrer Sicht könnte in Forschung und Unternehmen aber noch mehr über die Risiken informiert werden: „Nicht jedem Wissenschaftler ist bewusst, dass die Forschung auch zweckentfremdet werden kann.“ Schon in der Ausbildung sollte darauf hingewiesen werden. Je mehr geforscht wird, desto größer werde die Gefahr, dass mal jemand in einem Labor arbeitet, der nicht nur gute Absichten hat.

Zweckentfremdung erschwert Entdeckung
Die mögliche Zweckentfremdung erschwere es, etwa Biowaffenprogramme zu entdecken, sagt Jakob. Viele Stoffe und Materialien würden medizinisch oder pharmazeutisch genutzt. Da sei es schwierig abzuwägen - beziehungsweise es müssten Kontrolleure hinter die Kulissen der Rüstungsindustrie gucken können. Wegen der doppelten Einsatzmöglichkeit - im positiven wie im negativen Sinne - sei es nicht einfach, einzelne Stoffe zu verbieten, erklärt Sauer von der Bundeswehr-Uni.

Zitat Icon

Ich halte es für unwahrscheinlich, dass jemand komplizierte Genforschung betreibt, wenn er einen Anschlag plant.

Frank Sauer, Universität der Bundeswehr München

Dennoch schätzt Jakob die Gefahr neuer, auf technologisch hohem Niveau entwickelter Biowaffen ebenfalls als gering ein: „Ich halte es für unwahrscheinlich, dass jemand komplizierte Genforschung betreibt, wenn er einen Anschlag plant. Dann kann er auch Rizin im Internet bestellen.“ Das sei zeitlich und finanziell weniger Aufwand.

Und etwas Gutes könnte der technologische Fortschritt selbst im Fall der Fälle haben, wie Trapp sagt: die Fähigkeit, schneller zu reagieren. Denn mit den wissenschaftlichen Kapazitäten könnte im Idealfall auch rascher ein Gegenmittel gefunden werden - auch wenn der Auslöser mit KI entwickelt wurde.

 krone.at
krone.at
Loading...
00:00 / 00:00
play_arrow
close
expand_more
Loading...
replay_10
skip_previous
play_arrow
skip_next
forward_10
00:00
00:00
1.0x Geschwindigkeit
explore
Neue "Stories" entdecken
Beta
Loading
Kommentare

Da dieser Artikel älter als 18 Monate ist, ist zum jetzigen Zeitpunkt kein Kommentieren mehr möglich.

Wir laden Sie ein, bei einer aktuelleren themenrelevanten Story mitzudiskutieren: Themenübersicht.

Bei Fragen können Sie sich gern an das Community-Team per Mail an forum@krone.at wenden.



Kostenlose Spiele