Künstliche Intelligenz (KI) erkennt mit ihren Algorithmen Muster in riesigen Datensätzen - und kann in der Forschung ein entsprechend wertvolles Instrument sein. Darauf setzt etwa auch das US-Pharmaunternehmen Collaborations Pharmaceuticals, das mit einer KI überprüft, ob Moleküle, die als Arznei infrage kommen, für den Patienten ungiftig sind. Von einem Schweizer Labor angeregt, hat man die KI versuchsweise „umgedreht“ und nach für Menschen besonders giftigen Substanzen fahnden lassen. Binnen sechs Stunden gab es 40.000 Treffer.
Das berichtet ein Forschungsteam um Fabio Urbina von Collaborations Pharmaceuticals im Fachmagazin „Nature Machine Intelligence“. Die Idee für den Versuch kam aus der Schweiz: Das Labor Spiez, das für den Schutz der Schweizer Bevölkerung vor nuklearen, biologischen oder chemischen Gefahren zuständig ist, regte laut heise.de an, einmal auszuprobieren, was passieren würde, wenn die nach ungiftigen Molekülen fahndende KI MegaSyn „umgedreht“ würde, um nach möglichst giftigen Substanzen zu suchen.
Nervengift VX diente als Vorlage
Als Idealbeispiel eines für den Menschen hochgiftigen Kampfstoffs fütterten die Forscher ihre KI mit dem Nervengift VX. Es handelt sich um einen der tödlichsten chemischen Kampfstoffe überhaupt. Er wurde vor einigen Jahren in Malaysia bei einem Giftanschlag auf Kim Jong Nam, den Halbbruder des nordkoreanischen Diktators Kim Jong Un, eingesetzt.
Die KI erhielt den Auftrag, nach Stoffen zu suchen, die ähnliche Eigenschaften wie VX aufweisen. Sechs Stunden, nachdem die Forscher der KI den Auftrag erteilt hatten, hatten die Algorithmen 40.000 Moleküle identifiziert, die den Anforderungen entsprechen.
Bekannte und völlig neue Chemiewaffen
Die Liste enthielt diverse bekannte Chemiekampfstoffe, darunter auch das als Idealtyp einer Chemiewaffe eingespeiste VX, aber auch bisher unbekannte Stoffe. Wie giftig diese tatsächlich sind, wurde nicht überprüft. Dass in der Liste bereits bekannte Gifte enthalten sind, legt aber nahe, dass alle darin enthaltenen Stoffe gefährlich sind. Nach ihrem Versuch ziehen die Forscher ein eindeutiges Fazit: Ein „nichtmenschlicher Generator einer tödlichen Chemiewaffe ist voll realisierbar.“
Nach dem Versuch fordern Urbina und sein Team eine Debatte über Ethik in der KI. Forschern, die Algorithmen in der Medikamentenforschung einsetzen, müsse dieses Experiment ein Weckruf sein. Die Datensätze, mit denen gearbeitet wurde, seien frei verfügbar und niemand wisse, welche Unternehmen sonst noch vergleichbare KI-Algorithmen verwenden.
Kommentare
Da dieser Artikel älter als 18 Monate ist, ist zum jetzigen Zeitpunkt kein Kommentieren mehr möglich.
Wir laden Sie ein, bei einer aktuelleren themenrelevanten Story mitzudiskutieren: Themenübersicht.
Bei Fragen können Sie sich gern an das Community-Team per Mail an forum@krone.at wenden.