Das 'Killer Robot'-Labor steht vor dem Boykott von Experten für künstliche Intelligenz

  • Vlad Krasen
  • 0
  • 3448
  • 925

Die Community für künstliche Intelligenz (KI) hat eine klare Botschaft an Forscher in Südkorea: Machen Sie keine Killerroboter.

Fast 60 KI- und Robotik-Experten aus fast 30 Ländern haben einen offenen Brief unterschrieben, in dem ein Boykott gegen KAIST, eine öffentliche Universität in Daejeon, Südkorea, gefordert wird. Berichten zufolge "entwickelt" sie Technologien für künstliche Intelligenz, die auf das Militär angewendet werden sollen Waffen, die sich dem globalen Wettbewerb zur Entwicklung autonomer Waffen anschließen ", heißt es in dem offenen Brief.

Mit anderen Worten, KAIST könnte untersuchen, wie man KI-Waffen in Militärqualität herstellt. [5 Gründe, Roboter zu fürchten]

Dem offenen Brief zufolge waren KI-Experten auf der ganzen Welt besorgt, als sie erfuhren, dass KAIST - in Zusammenarbeit mit Hanwha Systems, Südkoreas führendem Rüstungsunternehmen - am 20. Februar eine neue Einrichtung mit dem Namen "Forschungszentrum für die Konvergenz der nationalen Verteidigung" eröffnete Künstliche Intelligenz.

Angesichts der Tatsache, dass die Vereinten Nationen (U.N.) bereits darüber diskutieren, wie die internationale Gemeinschaft vor Killer-KI-Robotern geschützt werden kann, "ist es bedauerlich, dass eine angesehene Institution wie KAIST das Wettrüsten zur Entwicklung solcher Waffen beschleunigen will", schrieben die Forscher in dem Brief.

Um die neue Mission von KAIST stark zu entmutigen, boykottieren die Forscher die Universität, bis ihr Präsident klarstellt, dass das Zentrum keine "autonomen Waffen ohne sinnvolle menschliche Kontrolle" entwickeln wird, sagten die Briefschreiber.

Dieser Boykott wird alles umfassen. "Wir werden zum Beispiel KAIST nicht besuchen, keine Besucher von KAIST aufnehmen oder zu einem Forschungsprojekt mit KAIST beitragen", sagten die Forscher.

Wenn KAIST die Entwicklung autonomer Waffen fortsetzt, könnte dies zu einer dritten Revolution in der Kriegsführung führen, sagten die Forscher. Diese Waffen "haben das Potenzial, Terrorwaffen zu sein", und ihre Entwicklung könnte dazu führen, dass der Krieg schneller und in größerem Umfang geführt wird, sagten sie.

Despoten und Terroristen, die diese Waffen erwerben, könnten sie gegen unschuldige Bevölkerungsgruppen einsetzen und so die ethischen Zwänge beseitigen, denen reguläre Kämpfer ausgesetzt sein könnten, fügten die Forscher hinzu.

Ein solches Verbot tödlicher Technologien ist nicht neu. Zum Beispiel verbieten die Genfer Konventionen den Streitkräften, blendende Laserwaffen direkt gegen Menschen einzusetzen, wie bereits berichtet. Darüber hinaus sind Nervenwirkstoffe wie Sarin und VX durch das Chemiewaffenübereinkommen verboten, an dem mehr als 190 Nationen teilnehmen.

Nicht jedes Land stimmt jedoch einem umfassenden Schutz wie diesen zu. Hanwha, das Unternehmen, das mit KAIST zusammenarbeitet, hilft bei der Herstellung von Streumunition. Solche Munition ist nach dem U.N.-Übereinkommen über Streumunition verboten, und mehr als 100 Nationen (obwohl nicht Südkorea) haben das Übereinkommen gegen sie unterzeichnet, sagten die Forscher.

Hanwha hat Auswirkungen auf seine Handlungen gehabt; Aus ethischen Gründen investiert Norwegens öffentlich verteilter Pensionsfonds in Höhe von 380 Milliarden US-Dollar nicht in Hanhwa-Aktien, sagten die Forscher.

Anstatt an autonomen Tötungstechnologien zu arbeiten, sollte KAIST an KI-Geräten arbeiten, die das menschliche Leben verbessern, nicht schädigen, sagten die Forscher.

Inzwischen warnen andere Forscher seit Jahren vor KI-Roboterrobotern, darunter Elon Musk und der verstorbene Stephen Hawking.

Originalartikel über .




Bisher hat noch niemand einen Kommentar zu diesem Artikel abgegeben.

Die interessantesten Artikel über Geheimnisse und Entdeckungen. Viele nützliche Informationen über alles
Artikel über Wissenschaft, Raumfahrt, Technologie, Gesundheit, Umwelt, Kultur und Geschichte. Erklären Sie Tausende von Themen, damit Sie wissen, wie alles funktioniert