Etiken kring artificiell intelligens är en del av teknikens etikkännetecknande för robotar och andra artificiellt intelligenta varelser. Det är vanligtvis indelat i robotetik , som handlar om människors moraliska beteende vid design, konstruktion, användning och behandling av artificiellt intelligenta varelser, och maskinetik ., som tar upp frågorna om moraliskt beteende hos artificiella moraliska agenter (IMA).
Termen "robotetik" (eller "roboetik") syftar på de moraliska frågorna om hur människor designar, konstruerar, använder och hanterar robotar och andra artificiellt intelligenta varelser [1] . Den behandlar frågor om hur artificiellt intelligenta varelser kan användas till nackdel och i människors intresse.
"Roboträttigheter" är konceptet att människor ska ha moraliska skyldigheter gentemot sina maskiner, liknande mänskliga eller djurs rättigheter [2] . Det finns ett förslag om att robotars rättigheter, såsom rätten att existera och fullgöra sitt eget uppdrag, kan förknippas med en robots plikt att tjäna en person, analogt med att koppla mänskliga rättigheter med en persons skyldigheter mot samhället [3 ] . Dessa kan omfatta rätten till liv och frihet, tanke- och yttrandefrihet och likhet inför lagen [4] . Denna fråga har granskats av Institute for the Future [5] och det brittiska handels- och industridepartementet [6] .
Experter är inte överens om huruvida specifika och detaljerade lagar kommer att krävas inom en snar framtid eller bara inom en avlägsen framtid [6] . Glenn McGee rapporterar att 2020 kan tillräckligt humanoida robotar dyka upp [7] . Ray Kurzweil tror att detta kommer att hända 2029 [8] . 2007 föreslog en annan grupp forskare att det skulle dröja minst 50 år innan något tillräckligt avancerat system kunde existera [9] .
Reglerna för 2003 års Lobnerpristävling inkluderade möjligheten att robotar kunde ha sina egna rättigheter.
I oktober 2017 fick androiden Sophia "hedersmedborgarskap" i Saudiarabien , även om vissa observatörer ansåg detta mer som ett reklamtrick än ett meningsfullt juridiskt erkännande [10] . Vissa såg denna gest som en öppen förnedring av mänskliga rättigheter och rättsstatsprincipen [11] .
Filosofi om sentitismger rätten till moraliska hänsyn till alla kännande varelser, främst till människor och de flesta djur. Om artificiella eller främmande intelligenta varelser visar bevis på sin sensualitet , hävdar denna filosofi att de bör visas medkänsla och ges rättigheter.
Joanna Bryson har hävdat att skapandet av rättighetskrävande AI är undvikande och oetiskt i sig, att det skulle vara en börda för både AI-agenter och det mänskliga samhället [12] .
Joseph Weizenbaum hävdade 1976 att artificiell intelligensteknologi inte borde användas för att ersätta människor i jobb som kräver respekt och omsorg, som:
Weizenbaum förklarar att vi kräver en genuin känsla av empati från människor i dessa positioner . Om maskiner ersätter dem kommer vi att bli alienerade, nedvärderade och frustrerade. Artificiell intelligens, om den används på detta sätt, utgör ett hot mot den mänskliga värdigheten. Weizenbaum hävdar att det faktum att vi överväger maskiner i dessa positioner tyder på att vi har upplevt "den atrofi av den mänskliga anden som kommer från att tänka på oss själva som datorer" [13] .
Pamela McCordack kontrar , på tal om kvinnor och minoriteter, "Jag vill hellre chansa med en opartisk dator", och pekar på de förhållanden under vilka vi hellre skulle ha automatiska domare och poliser som inte har något egenintresse alls [13] . Kaplan och Henlein betonar dock att AI-system är intelligenta exakt enligt de data som används för att träna dem, eftersom de i sin kärna inte är något annat än kurvassisterade approximationsmaskiner : att använda AI för att stödja bedömning kan vara mycket problematiskt om tidigare beslut visar partiskhet mot vissa grupper, eftersom dessa fördomar formaliseras och förstärks, vilket gör det ännu svårare att identifiera och bekämpa dem [14] . AI-grundaren John McCarthy invänder mot den moraliserande tonen i Weizenbaums kritik. Han skriver: "När moralisering är häftigt och vagt, uppmuntrar det auktoritärt våld."
Bill Hibbard [15] noterade att "mänsklig värdighet kräver att vi försöker eliminera vår okunnighet om varelsens natur, och detta kräver AI."
Bill Hibbardhävdar att eftersom AI i hög grad kommer att påverka mänskligheten, bör AI-utvecklares ansträngningar vara etiskt transparenta [16] . Ben Goertzel och David Hart skapade OpenCog som ett ramverk med öppen källkod för AI-utveckling [17] . OpenAI är ett icke-vinstdrivande forskningsföretag för artificiell intelligens skapat av Elon Musk , Sam Altmanoch andra för att utveckla AI-programvara med öppen källkod som är användbar för mänskligheten [18] . Det finns många andra AI-utvecklingar med öppen källkod.
Tyvärr gör det inte förståeligt att öppna koden, vilket betyder att AI den kodar inte är transparent. IEEE försöker standardisera AI-transparens [19] . IEEE:s ansträngningar fördelar flera grader av transparens till olika användare. Dessutom finns det oro för att ge den fulla potentialen av modern AI till vissa organisationer kan vara dåligt för allmänheten, vilket innebär att det kan göra mer skada än nytta. Till exempel har Microsoft uttryckt oro över att göra sin mjukvara för ansiktsigenkänning tillgänglig för allmänheten, även för dem som kan betala för det. Microsoft har publicerat en ovanlig blogg i ämnet och ber om statlig reglering för att hjälpa till att bestämma rätt tillvägagångssätt [20] .
Inte bara företag, utan många andra forskare och civila förespråkare rekommenderar statlig reglering för att säkerställa transparens och, som ett resultat, mänskligt ansvar. En uppdaterad samling (lista) av AI-etik upprätthålls av AlgorithmWatch. Arkiverad 30 november 2019 på Wayback Machine Denna strategi är kontroversiell, eftersom vissa fruktar att den kommer att bromsa innovationstakten. Andra menar att reglering leder till systemisk stabilitet som bättre kan stödja innovation på lång sikt [21] . OECD , FN , EU och många länder arbetar för närvarande med AI-regleringsstrategier och letar efter en lämplig rättslig ram [22] [23] [24] . Den 26 juni publicerade Europeiska kommissionens högnivåexpertgrupp för artificiell intelligens (AI HLEG) sina "Rekommendationer för politik och investeringar i robust artificiell intelligens". Detta är det andra AI HLEG-dokumentet efter publiceringen av Ethics Guidelines for Trusted AI i april 2019. De nya rekommendationerna omfattar fyra huvudområden: människor och samhället som helhet, den privata sektorn, den offentliga sektorn samt forskning och vetenskap. HLEG-rekommendationerna återspeglar en förståelse för både möjligheterna för AI-teknik att driva ekonomisk tillväxt, välstånd och innovation, såväl som de potentiella riskerna. Europeiska unionen har ambitioner att leda utvecklingen av AI-policyer över hela världen. Men om inte Europa påskyndar utbyggnaden och införandet och bygger tillverknings-, forsknings- och utvecklingskapacitet, kommer dess förmåga att göra det att vara begränsad [25] .
AI blir en allt mer integrerad del av ansikts- och röstigenkänningssystem. Vissa av dessa system har en verklig inverkan på företag och människor. Dessa system är sårbara för fördomar och fel som introduceras av mänskliga skapare. Dessutom kan data som används för att träna dessa AI-system själva vara partiska [26] [27] [28] [29] . Till exempel visade sig ansiktsigenkänningsalgoritmer utvecklade av Microsoft , IBM och Face++ vara partiska när det kom till att bestämma kön på människor [30] . Dessa AI-system kunde bestämma vita mäns kön mer exakt än svarta mäns kön. Ett annat exempel på AI-bias var Amazon's.com Inc:s sluta använda AI för att anställa. Algoritmen gynnade fler manliga kandidater än kvinnor. Detta berodde på att Amazon-systemet tränades med hjälp av data som samlats in under en 10-årsperiod, som huvudsakligen kom från manliga sökande [31] .
Bias kan komma in i algoritmer på många sätt. I en mycket inflytelserik gren av AI känd som "naturlig språkbehandling" kan problem uppstå från "textkorpusen" - källmaterialet som algoritmen använder för att lära sig om relationerna mellan olika ord [32] .
Stora företag som IBM, Google och andra har redan börjat undersöka och ta itu med problemet med partiskhet [33] [34] [35] .
Problemet med bias i maskininlärning kommer sannolikt att bli allvarligare när tekniken expanderar till kritiska områden som medicin och juridik, och allt fler människor som inte har djup teknisk kunskap tilldelas uppgiften att implementera den. Vissa experter varnar för att algoritmisk bias redan är utbredd i många branscher och att nästan ingen anstränger sig för att identifiera eller korrigera den [36] .
Det finns all anledning att tro att den utbredda användningen av delvis eller helt obemannade fordon är oundviklig i framtiden . Men helt autonoma teknologier ställer oss inför nya problem och utmaningar [37] [38] [39] . Nyligen har det varit en debatt om parternas rättsliga ansvar när obemannade fordon råkar ut för en olycka [40] [41] . I en av rapporterna [42] körde en förarlös bil på en fotgängare och problemet uppstod om vem som var skyldig till olyckan. Trots att föraren befann sig i bilen vid olyckstillfället låg kontrollerna helt i datorns händer. Den här typen av frågor måste åtgärdas innan självkörande bilar blir utbredda [43] [44] [45] .
Vissa experter och forskare ifrågasätter användningen av robotar i strid, särskilt när sådana robotar ges en viss grad av autonomi [46] [47] . Den amerikanska flottan finansierade en rapport som indikerar att när stridsrobotar blir mer sofistikerade, bör mer uppmärksamhet ägnas åt konsekvenserna av deras förmåga att fatta oberoende beslut [48] [49] .
Under det senaste decenniet har det pågått intensiv forskning om självlärande autonomi med tilldelat moraliskt ansvar. "Resultaten kan användas i utvecklingen av framtida militära robotar för att kontrollera oönskade tendenser att lägga ansvar på robotar" [50] . Ur konsekvenssynpunkt är det möjligt att robotar kommer att utveckla förmågan att ta sina egna logiska beslut om vem de ska döda, och därför finns det moraliska begränsningar som AI inte kan kringgå [51] .
Nyligen har det funnits röster av protester mot utvecklingen av AI-vapen som skulle innefatta idén om en robot som tar över mänskligheten. AI-vapen medför en annan typ av fara än människokontrollerade vapen. Många regeringar har redan börjat finansiera program för att utveckla AI-vapen. Den amerikanska flottan tillkännagav nyligen planer på att utveckla en attackdrönare , parallellt med liknande tillkännagivanden från Ryssland och Korea. Med AI-vapen som blev farligare än människokontrollerade vapen, skrev Stephen Hawking och Max Tegmark på petitionen Future of Life [52] för att förbjuda AI-vapen. En rapport publicerad av Hawking och Tegmark säger att AI-vapen utgör en omedelbar fara och att åtgärder måste vidtas för att undvika katastrofala konsekvenser inom en snar framtid [53] .
"Om någon större militär styrka främjar utvecklingen av AI-vapen är en global kapprustning nästan oundviklig , och som ett resultat kommer autonoma vapen att bli morgondagens Kalashnikov-attackgevär", står det i petitionen, som inkluderar motståndare till väpnad AI: Skype grundare Jaan Tallinn och MIT professor i lingvistik Noam Chomsky [54] .
Fysikern och astronomen Sir Martin Rees varnar för sådana katastrofala exempel som "dumma robotar som blir oseriösa eller ett nätverk som utvecklar sin egen intelligens." Hugh Price , en Cambridge-kollega till Rhys's, lät en liknande varning om att människor kanske inte skulle överleva om intelligens "flydde biologiska gränser". vid University of Cambridge skapade de Center for the Study of Existential Riski hopp om att undvika detta hot mot människans existens [53] .
När det gäller möjligheten att använda "smartare än mänskliga" system i militära angelägenheter, projektet Open Philanthropyskriver att dessa scenarier "potentiellt verkar lika viktiga som riskerna med att förlora kontrollen", men forskningsorganisationer som fokuserar på den långsiktiga sociala effekten av AI har inte tillräckligt utforskat denna fråga: "den här klassen av scenarier har inte varit i fokus för dessa frågor, organisationer som Machine Intelligence Research Institute (MIRI) och Future of Humanity Institute (FHI) och därför mindre diskuterade” [55] .
Maskinetik (eller maskinmoral) är ett forskningsfält relaterat till utvecklingen av artificiella moraliska agenter .(IMA), robotar eller artificiellt intelligenta datorer som beter sig moraliskt eller så att säga moraliskt [56] [57] [58] [59] . För att ta hänsyn till arten av dessa agenter har det föreslagits att överväga några filosofiska idéer såsom standardegenskaperna för subjekt , rationella agenter , moraliska faktoreroch artificiell subjektivitet, som är förknippade med begreppet IMA [60] .
Isaac Asimov tog upp denna fråga på 1950-talet i sin I, Robot-serie med noveller. På uppmaning av sin redaktör John W. Campbell, Jr. att kontrollera artificiellt intelligenta system, föreslog han Robotics Three Laws . Mycket av hans arbete ägnades åt att testa gränserna för hans tre lagar för att se var de kan bryta eller var de kan orsaka paradoxalt eller oväntat beteende. Hans arbete tyder på att ingen enstaka etablerad lag på ett adekvat sätt kan förutse alla möjliga omständigheter. Nyligen har forskare och många regeringar ifrågasatt idén om att hålla AI ansvarig [61] . En kommission som sammankallades av Storbritannien 2010 reviderade Asimov-lagarna för att klargöra att AI är antingen dess producenters eller dess ägares/operatörs ansvar [62] .
2009, under ett experiment vid Laboratory for Intelligent Systems vid Polytechnic School of Lausanne i Schweiz , lärde sig robotar som var programmerade att samarbeta med varandra (i jakt på användbara resurser och undvika giftiga) så småningom att ljuga för varandra i en försök att samla användbara resurser [63] . Ett problem i det här fallet kan vara att målen var "ändliga" (medan grundläggande mänskliga motiv vanligtvis har en kvalitet som kräver oändlig inlärning) [64] .
Vissa experter och forskare har ifrågasatt användningen av robotar för strid, särskilt när sådana robotar ges vissa grader av autonoma funktioner [46] . Den amerikanska flottan finansierade en rapport som indikerar att allt eftersom militära robotar blir mer komplexa, bör mer uppmärksamhet ägnas åt konsekvenserna av deras förmåga att fatta oberoende beslut [65] [49] .
Vernor Vinge föreslog att det kan komma en tid då vissa datorer blir smartare än människor och kallar detta fenomen för en singularitet [66] . Han föreslår att detta kan vara delvis eller till och med mycket farligt för människor [67] . Machine Intelligence Research Institute har föreslagit behovet av " Friendly AI ", vilket betyder att de framsteg som redan sker med AI också bör innefatta ansträngningar för att skapa en vänligare och mer human AI.
2009 deltog forskare och tekniska experter i en konferens som anordnades av Association for the Advancement of Artificiell Intelligensatt diskutera den potentiella påverkan av robotar och datorer och effekten av den hypotetiska möjligheten att de skulle kunna bli självförsörjande och kapabla att fatta sina egna beslut. De diskuterade möjligheten och omfattningen i vilken datorer och robotar kunde förvärva alla nivåer av autonomi, och i vilken utsträckning de kunde använda sådana möjligheter för att utgöra något hot eller fara. De noterade att vissa maskiner har förvärvat olika former av semi-autonomi, inklusive förmågan att självständigt hitta energikällor och förmågan att självständigt välja mål för attack med vapen. De noterade också att vissa datavirus kan undvika att dödas och har uppnått "kackerlackaintelligens". De noterade att självmedvetenhet som avbildas i science fiction förmodligen är osannolik, men det finns andra potentiella faror och fallgropar [66] .
Det finns dock en teknik som faktiskt kan leda till robotar med moraliska krafter. I en artikel om förvärvet av moraliska värderingar av robotar , Nayef Al-Rodhannämner ett fall av neuromorfchips som försöker bearbeta information på samma sätt som människor, icke-linjärt och med miljontals sammankopplade artificiella neuroner [68] . Robotar med inbyggd neuromorf teknologi kan lära sig och utveckla kunskap på ett unikt sätt. Detta väcker oundvikligen frågan om den miljö i vilken sådana robotar kommer att lära sig världen och moralen som de kommer att ärva, eller om de så småningom också kommer att utveckla mänskliga "svagheter": själviskhet, attityd till överlevnad, tvekan, etc.
I Moral Machines: Teaching Robots Right Through Wrong [69] drar Wendell Wallach och Colin Allen slutsatsen att försök att lära robotar att göra rätt genom fel kan främja förståelsen av mänsklig etik, motivera människor att ta itu med luckor i nuvarande normativa teorier och tillhandahålla en plattform för experimentell forskning. Som ett exempel ställer han normativa etiker den diskutabla frågan om vilka speciella maskininlärningsalgoritmer som ska användas. Nick Bostrom och Eliezer Yudkowsky argumenterar för beslutsträd (som ID3 ) över neurala nätverk och genetiska algoritmer eftersom beslutsträd lyder moderna sociala normer för transparens och förutsägbarhet (som stare decisis ) [70] , medan Chris Santos Lang hävdar att normer för alla ålder kan ändras och att ett naturligt misslyckande med att fullt ut uppfylla dessa särskilda normer är avgörande för att göra människor mindre sårbara för kriminella " hackers " [64] .
Enligt en rapport från 2019 från Center for AI Governance vid Oxford University anser 82 % av amerikanerna att robotar och AI måste hanteras noggrant. Frågor som diskuterades sträckte sig från hur AI används för att spionera på och sprida falskt innehåll online (känd som deepfakes när det inkluderar falsk AI-genererad video och ljud), till cyberattacker, attacker mot datasekretess, rekryteringsbias, obemannade fordon och drönare som gör det. kräver inte en mänsklig kontrollant [71] .
Många forskare hävdar att som ett resultat av den "intellektuella explosionen" som inträffade någonstans på 2000-talet, kan självförbättrande AI bli så kraftfull att vi inte kan hindra den från att uppnå sina mål [72] . I sin artikel "Ethical Issues in Advanced Artificial Intelligence" hävdar filosofen Nick Bostrom att artificiell intelligens har potential att orsaka mänsklig utrotning. Han hävdar att den allmänna superintelligensen är kapabel till oberoende initiativ och skapandet av sina egna planer, och därför är det lämpligare att betrakta den som en autonom agent. Eftersom artificiell intelligens inte krävs för att dela mänskliga motiv, utvecklarna av superintelligensborde ha lagt sin ursprungliga motivation. Teoretiskt sett kan en superintelligent AI leda till nästan alla möjliga resultat och stoppa alla försök att störa sitt huvudmål, många okontrollerbara oavsiktliga konsekvenser kan uppstå . Detta kan döda alla andra agenter, övertyga dem att ändra sitt beteende eller blockera deras försök att ingripa [73] .
Men istället för att överträffa mänskligheten och leda den till förstörelse, hävdar Bostrom också att superintelligens kan hjälpa oss att lösa många komplexa problem som sjukdomar, fattigdom, miljöförstöring och kan hjälpa oss att "förbättra" oss själva [74] .
Komplexiteten i mänskliga värdesystem gör det mycket svårt att skapa människovänliga AI-motiveringar [72] [73] . Så länge moralfilosofin inte ger oss en felfri etisk teori, kan AI-verktygsfunktionen tillåta många potentiellt skadliga scenarier som passar det givna etiska ramverket men som inte passar "sunt förnuft". Enligt Eliezer Yudkowsky har vi liten anledning att tro att ett artificiellt skapat sinne skulle ha en sådan anpassning [75] .
Bill Hibbard [15] föreslog en AI-design som undviker vissa typer av oavsiktligt beteende, inklusive självbedrägeri, oavsiktliga instrumentella handlingar och skada på belöningsgeneratorn.
Amazon , Google , Facebook , IBM och Microsoft har bildat ett ideellt partnerskap för att utveckla AI-teknikens bästa praxis, förbättra allmänhetens förståelse och tillhandahålla en AI-plattform. De sa: "Detta AI-partnerskap kommer att bedriva forskning, organisera diskussioner, tillhandahålla tankeledarskap, samråda med relevant tredje part, svara på frågor från allmänheten och media och skapa läromedel som främjar förståelsen för AI-teknik, inklusive maskinuppfattning, inlärning och automatiskt resonemang” [76] . Apple anslöt sig till andra teknikföretag som en av grundarna av Artificial Intelligence Partnership i januari 2017. Företagsmedlemmar kommer att ge ekonomiska och forskningsbidrag till gruppens arbete och interagera med det vetenskapliga samfundet för att locka forskare till styrelsen [77] .
IEEE har utvecklat Global Initiative on the Ethics of Autonomous and Intelligent Systems Archived October 6, 2019 at the Wayback Machine , som utvecklar och granskar allmänna opinionsriktlinjer och välkomnar många experter från och utanför organisationen som sina medlemmar.
Traditionellt har regeringen använts av allmänheten för att kontrollera etiken inom ramen för lag och ordning. För närvarande gör nationella regeringar, såväl som transnationella statliga och icke-statliga organisationer, stora ansträngningar för att säkerställa en etisk användning av AI.
Filmen The Thirteenth Floor skildrar en framtid där spelkonsoler skapar simulerade världar med kännande invånare för underhållning . Filmen " The Matrix " visar en framtid där intelligenta maskiner är den dominerande arten på planeten jorden och mänskligheten utsätts för extrem diskriminering. I novellen " Plancks nedsänkning” visar en framtid där mänskligheten har blivit mjukvara som kan dupliceras och optimeras, och motsvarande distinktion mellan typer av mjukvara är rimlig och inte känslig. Samma idé kan hittas i Starship Voyager Emergency Medical Hologram , som är en uppenbarligen kännande kopia av en reducerad delmängd av medvetandet hos dess skapare, Dr. Zimmerman , som i god tro skapade ett system för att ge akut medicinsk vård. Filmerna Bicentennial Man och Artificial Intelligence utforskar möjligheterna hos kännande robotar som kan älska. " I, Robot " visade några aspekter av Asimovs tre robotlagar . Alla försöker förutse de eventuellt oetiska konsekvenserna av att bygga intelligenta datorer.
Etiken kring artificiell intelligens är ett av huvudteman i BioWares Mass Effect -spelserie . Hon överväger ett scenario där en civilisation av misstag skapade AI genom en snabb ökning av datorkraften med hjälp av ett globalt neuralt nätverk . Denna händelse orsakade en etisk klyfta mellan de som trodde att kännande Geth kunde förses med organiska rättigheter och de som fortsatte att se dem som en engångsmekanism och kämpade för att förstöra dem. Bortsett från den inledande konflikten är ett annat återkommande tema genom hela berättelsen komplexiteten i förhållandet mellan maskinerna och deras skapare.