
Haasteet ovat valtavia. Vaikka autonomiset aseet jo muuttavat sotastrategioita, niiden käyttö herättää huolta. Miten voidaan taata, että nämä koneet tekevät päätöksiä, jotka ovat linjassa inhimillisten moraalisten periaatteiden kanssa? Asimovin ajatuksiin nojaten DARPA pyrkii tarjoamaan vastauksia, avaten olennaisen keskustelun sodan ja teknologisen etiikan tulevaisuudesta.
Asimovin kolme lakia: merkittävä inspiraatio
Isaac Asimov, tieteiskirjailija, keksi "Robotiikan kolme lakia" vuonna 1942. Nämä säännöt, jotka on suunniteltu suojelemaan ihmisiä, määräävät, että robotti ei voi vahingoittaa ihmistä, sen on toteltava ihmisten käskyjä, mutta sen on myös suojeltava omaa olemassaoloaan. Tässä ne yksityiskohtaisesti:- Robotti ei voi vahingoittaa ihmistä eikä, pysyessään passiivisena, saa jättää tätä ihmistä vaaraan;
- Robotti on toteltava ihmisten antamia käskyjä, elleivät tällaiset käskyt ole ristiriidassa ensimmäisen lain kanssa;
- Robotti on suojeltava omaa olemassaoloaan siinä määrin kuin tämä suojaaminen ei ole ristiriidassa ensimmäisen tai toisen lain kanssa.
Isaac Asimov tutki näiden lakien rajoja romaaneissaan, näyttäen, miten niitä voidaan tulkita odottamattomilla tavoilla. Nämä kertomukset, vaikka fiktiivisiä, esittävät merkittäviä kysymyksiä koneiden moraalista. Nykyään DARPA käyttää niitä ohjaamaan sotilaallisia autonomisia järjestelmiä.
ASIMOV-ohjelma: tavoitteet ja ongelmat
DARPA:n käynnistämä ASIMOV-ohjelma pyrkii arvioimaan autonomisten aseiden kykyä noudattaa inhimillisiä eettisiä normeja. Tämä ohjelma ei kehitä uusia aseita, vaan se etsii työkaluja robottikäyttäytymisen mittaamiseksi monimutkaisissa sotilaallisissa skenaarioissa.Seitsemän yritystä, mukaan lukien Lockheed Martin ja Raytheon, osallistuu tähän aloitteeseen. Niiden tehtävänä on mallintaa virtuaalisia ympäristöjä testatakseen tilanteiden vaihtelua ja arvioidakseen kunkin tapauksen eettistä vaikeutta. Tulokset voivat vaikuttaa kansainvälisiin normeihin.
Etiikan rajat autonomisissa järjestelmissä
Ihmisten eettiset normit ovat usein subjektiivisia ja vaihtelevat kulttuurien mukaan. Autonomiset järjestelmät, jotka perustuvat algoritmeihin, kamppailevat näiden vivahteiden sisällyttämisessä. Tekoälyn etiikan asiantuntija Peter Asaro korostaa, että etiikkaa ei voida vähentää yksinkertaisiksi laskelmiksi.Lisäksi odottamattomat tilanteet taistelukentällä aiheuttavat suuria ongelmia. Miten robotti voi tehdä eettisen päätöksen moraalisen dilemman edessä? Nämä kysymykset jäävät ilman selkeitä vastauksia, huolimatta DARPA:n ponnisteluista.
Asimovin perintö ja sotilaallisten robottien tulevaisuus
Isaac Asimov on aina puolustanut ajatusta siitä, että robottien on oltava ihmiskunnan palveluksessa. Hänen lakinsa, vaikka fiktiivisiä, inspiroivat tänään konkreettisia ohjelmia, kuten tässä esiteltyä, joka kantaa hänen nimeään. Kuitenkin niiden soveltaminen sotilaallisessa kontekstissa herättää ennennäkemättömiä kysymyksiä.DARPA tunnustaa, että ASIMOV-ohjelma ei ratkaise kaikkia eettisiä kysymyksiä. Silti se edustaa ensimmäistä askelta autonomisten teknologioiden säätelemiseksi. Tehdyt työt voivat avata tietä vahvemmille kansainvälisille normeille.