Elon Musk og hundreder af AI-eksperter opfordrer til forbud mod 'Killer Robots'

Et åbent brev fra eksperter fra førende AI- og robotvirksomheder over hele verden har appelleret til FN om at forbyde brugen af ​​dødelige autonome våben - også kendt som ‘Killer Robots’.




MQ-9 Reaper Drone

en åbent brev underskrevet af 116 eksperter tilhørende robotvirksomheder og kunstig intelligensfirmaer fra 26 lande på den internationale fælleskonference om kunstig intelligens (IJCAI) er flyttet til at opfordre FN til at tage øjeblikkelige skridt for at begrænse brugen af ​​robotter i våbenløbet.

En 'Killer Robot' er defineret som et autonomt våbensystem, der er i stand til at identificere og inddrage et mål uden nogen menneskelig indgriben kræves. Mens teknologien stadig er under udvikling, bevæger mange sig imod den.



Canadas Clearpath Robotics var det første selskab, der appellerede for et forbud mod de automatiserede våben, der blev kontrolleret af AI, og nu har 115 flere selskabsledere tilsluttet sig løbet mod Killer Robots.



”Autonome våbensystemer er i centrum af udviklingen lige nu og har et meget reelt potentiale til at forårsage betydelig skade på uskyldige mennesker sammen med global ustabilitet,” sagde Ryan Gariepy, grundlægger og CTO af Clearpath Robotics, som også var den første til at underskrive.

Mere i nyheder: AI Støttet af Elon Musk Beats Top Pro Dota-spillere

”Udviklingen af ​​dødbringende autonome våbensystemer er uklok, uetisk og bør forbydes i international skala,” tilføjede han.

Det første brev, som blev frigivet i 2015 på IJCAI i Buenos Aires, blev godkendt af den britiske fysiker Stephen Hawking, Apple-medstifter Steve Wozniak og den kognitive videnskabsmand Noam Chomsky. Brevet advarede om faren for autonome våben.

”Dødelige autonome våben truer med at blive den tredje revolution i krigsførelse,” hedder det i det nylige brev. ”Når de er udviklet, vil de tillade, at væbnede konflikter udkæmpes i en større skala end nogensinde og til tider hurtigere end mennesker kan forstå.

Qinetiq MAARS

Underskriverne af 2017-brevet inkluderer, men ikke begrænset til:

  • Elon Musk, grundlægger af Tesla, SpaceX og OpenAI (USA)
  • Mustafa Suleyman, grundlægger og chef for anvendt AI hos Googles DeepMind (UK)
  • Esben Ostergaard, grundlægger og CTO for Universal Robotics (Danmark)
  • Jerome Monceaux, grundlægger af Aldebaran Robotics, producenter af Nao- og peberrobotter (Frankrig)
  • Jurgen Schmidhuber, førende ekspert inden for dyb læring og grundlægger af Nnaisense (Schweiz)
  • Yoshua Bengio, førende ekspert inden for dyb læring og grundlægger af Element AI (Canada)

”Dette kan være terrorvåben, våben, som despersoner og terrorister bruger mod uskyldige befolkninger, og våben, der er hacket for at opføre sig på uønskede måder,” tilføjer brevet.

Mere i nyheder: Denne AI-drevne løsning hjælper synshæmmede personer

”Vi har ikke længe til at handle. Når denne Pandoras kasse er åbnet, vil det være svært at lukke, ”hedder det og afsluttes med et presserende anmodning til FN' om at finde en måde at beskytte os alle mod disse farer. '

Underskrivere af 2017-brevet fra Indien:

  • Fahad Azad, grundlægger af Robotsoft Systems
  • Debashis Das, Ashish Tupate, Jerwin Prabu, stiftere (inkl. Administrerende direktør) af Bharati Robotics
  • Pranay Kishore, grundlægger og CEO af Phi Robotics Research
  • Pulkit Gaur, grundlægger og CTO for Gridbots Technologies
  • Shahid Memom, grundlægger og CTO for Vanora Robots
  • Krishnan Nambiar og Shahid Menon, grundlægger, administrerende direktør og CTO for Vanora Robotics
  • Achu Wilson, grundlægger og CTO for Sastra Robotics