Etiken kring artificiell intelligens

Etiken kring artificiell intelligens är en del av teknikens etikkännetecknande för robotar och andra artificiellt intelligenta varelser. Det är vanligtvis indelat i robotetik , som handlar om människors moraliska beteende vid design, konstruktion, användning och behandling av artificiellt intelligenta varelser, och maskinetik ., som tar upp frågorna om moraliskt beteende hos artificiella moraliska agenter (IMA).

Robotetik

Termen "robotetik" (eller "roboetik") syftar på de moraliska frågorna om hur människor designar, konstruerar, använder och hanterar robotar och andra artificiellt intelligenta varelser [1] . Den behandlar frågor om hur artificiellt intelligenta varelser kan användas till nackdel och i människors intresse.

Roboträttigheter

"Roboträttigheter" är konceptet att människor ska ha moraliska skyldigheter gentemot sina maskiner, liknande mänskliga eller djurs rättigheter [2] . Det finns ett förslag om att robotars rättigheter, såsom rätten att existera och fullgöra sitt eget uppdrag, kan förknippas med en robots plikt att tjäna en person, analogt med att koppla mänskliga rättigheter med en persons skyldigheter mot samhället [3 ] . Dessa kan omfatta rätten till liv och frihet, tanke- och yttrandefrihet och likhet inför lagen [4] . Denna fråga har granskats av Institute for the Future [5] och det brittiska handels- och industridepartementet [6] .

Experter är inte överens om huruvida specifika och detaljerade lagar kommer att krävas inom en snar framtid eller bara inom en avlägsen framtid [6] . Glenn McGee rapporterar att 2020 kan tillräckligt humanoida robotar dyka upp [7] . Ray Kurzweil tror att detta kommer att hända 2029 [8] . 2007 föreslog en annan grupp forskare att det skulle dröja minst 50 år innan något tillräckligt avancerat system kunde existera [9] .

Reglerna för 2003 års Lobnerpristävling inkluderade möjligheten att robotar kunde ha sina egna rättigheter.

I oktober 2017 fick androiden Sophia "hedersmedborgarskap" i Saudiarabien , även om vissa observatörer ansåg detta mer som ett reklamtrick än ett meningsfullt juridiskt erkännande [10] . Vissa såg denna gest som en öppen förnedring av mänskliga rättigheter och rättsstatsprincipen [11] .

Filosofi om sentitismger rätten till moraliska hänsyn till alla kännande varelser, främst till människor och de flesta djur. Om artificiella eller främmande intelligenta varelser visar bevis på sin sensualitet , hävdar denna filosofi att de bör visas medkänsla och ges rättigheter.

Joanna Bryson har hävdat att skapandet av rättighetskrävande AI är undvikande och oetiskt i sig, att det skulle vara en börda för både AI-agenter och det mänskliga samhället [12] .

Hot mot den mänskliga värdigheten

Joseph Weizenbaum hävdade 1976 att artificiell intelligensteknologi inte borde användas för att ersätta människor i jobb som kräver respekt och omsorg, som:

Weizenbaum förklarar att vi kräver en genuin känsla av empati från människor i dessa positioner . Om maskiner ersätter dem kommer vi att bli alienerade, nedvärderade och frustrerade. Artificiell intelligens, om den används på detta sätt, utgör ett hot mot den mänskliga värdigheten. Weizenbaum hävdar att det faktum att vi överväger maskiner i dessa positioner tyder på att vi har upplevt "den atrofi av den mänskliga anden som kommer från att tänka på oss själva som datorer" [13] .

Pamela McCordack kontrar , på tal om kvinnor och minoriteter, "Jag vill hellre chansa med en opartisk dator", och pekar på de förhållanden under vilka vi hellre skulle ha automatiska domare och poliser som inte har något egenintresse alls [13] . Kaplan och Henlein betonar dock att AI-system är intelligenta exakt enligt de data som används för att träna dem, eftersom de i sin kärna inte är något annat än kurvassisterade approximationsmaskiner : att använda AI för att stödja bedömning kan vara mycket problematiskt om tidigare beslut visar partiskhet mot vissa grupper, eftersom dessa fördomar formaliseras och förstärks, vilket gör det ännu svårare att identifiera och bekämpa dem [14] . AI-grundaren John McCarthy invänder mot den moraliserande tonen i Weizenbaums kritik. Han skriver: "När moralisering är häftigt och vagt, uppmuntrar det auktoritärt våld."

Bill Hibbard [15] noterade att "mänsklig värdighet kräver att vi försöker eliminera vår okunnighet om varelsens natur, och detta kräver AI."

Transparens, ansvarighet och öppen källkod

Bill Hibbardhävdar att eftersom AI i hög grad kommer att påverka mänskligheten, bör AI-utvecklares ansträngningar vara etiskt transparenta [16] . Ben Goertzel och David Hart skapade OpenCog som ett ramverk med öppen källkod för AI-utveckling [17] . OpenAI  är ett icke-vinstdrivande forskningsföretag för artificiell intelligens skapat av Elon Musk , Sam Altmanoch andra för att utveckla AI-programvara med öppen källkod som är användbar för mänskligheten [18] . Det finns många andra AI-utvecklingar med öppen källkod.

Tyvärr gör det inte förståeligt att öppna koden, vilket betyder att AI den kodar inte är transparent. IEEE försöker standardisera AI-transparens [19] . IEEE:s ansträngningar fördelar flera grader av transparens till olika användare. Dessutom finns det oro för att ge den fulla potentialen av modern AI till vissa organisationer kan vara dåligt för allmänheten, vilket innebär att det kan göra mer skada än nytta. Till exempel har Microsoft uttryckt oro över att göra sin mjukvara för ansiktsigenkänning tillgänglig för allmänheten, även för dem som kan betala för det. Microsoft har publicerat en ovanlig blogg i ämnet och ber om statlig reglering för att hjälpa till att bestämma rätt tillvägagångssätt [20] .

Inte bara företag, utan många andra forskare och civila förespråkare rekommenderar statlig reglering för att säkerställa transparens och, som ett resultat, mänskligt ansvar. En uppdaterad samling (lista) av AI-etik upprätthålls av AlgorithmWatch. Arkiverad 30 november 2019 på Wayback Machine Denna strategi är kontroversiell, eftersom vissa fruktar att den kommer att bromsa innovationstakten. Andra menar att reglering leder till systemisk stabilitet som bättre kan stödja innovation på lång sikt [21] . OECD , FN , EU och många länder arbetar för närvarande med AI-regleringsstrategier och letar efter en lämplig rättslig ram [22] [23] [24] . Den 26 juni publicerade Europeiska kommissionens högnivåexpertgrupp för artificiell intelligens (AI HLEG) sina "Rekommendationer för politik och investeringar i robust artificiell intelligens". Detta är det andra AI HLEG-dokumentet efter publiceringen av Ethics Guidelines for Trusted AI i april 2019. De nya rekommendationerna omfattar fyra huvudområden: människor och samhället som helhet, den privata sektorn, den offentliga sektorn samt forskning och vetenskap. HLEG-rekommendationerna återspeglar en förståelse för både möjligheterna för AI-teknik att driva ekonomisk tillväxt, välstånd och innovation, såväl som de potentiella riskerna. Europeiska unionen har ambitioner att leda utvecklingen av AI-policyer över hela världen. Men om inte Europa påskyndar utbyggnaden och införandet och bygger tillverknings-, forsknings- och utvecklingskapacitet, kommer dess förmåga att göra det att vara begränsad [25] .

Bias i AI-system

AI blir en allt mer integrerad del av ansikts- och röstigenkänningssystem. Vissa av dessa system har en verklig inverkan på företag och människor. Dessa system är sårbara för fördomar och fel som introduceras av mänskliga skapare. Dessutom kan data som används för att träna dessa AI-system själva vara partiska [26] [27] [28] [29] . Till exempel visade sig ansiktsigenkänningsalgoritmer utvecklade av Microsoft , IBM och Face++ vara partiska när det kom till att bestämma kön på människor [30] . Dessa AI-system kunde bestämma vita mäns kön mer exakt än svarta mäns kön. Ett annat exempel på AI-bias var Amazon's.com Inc:s sluta använda AI för att anställa. Algoritmen gynnade fler manliga kandidater än kvinnor. Detta berodde på att Amazon-systemet tränades med hjälp av data som samlats in under en 10-årsperiod, som huvudsakligen kom från manliga sökande [31] .

Bias kan komma in i algoritmer på många sätt. I en mycket inflytelserik gren av AI känd som "naturlig språkbehandling" kan problem uppstå från "textkorpusen" - källmaterialet som algoritmen använder för att lära sig om relationerna mellan olika ord [32] .

Stora företag som IBM, Google och andra har redan börjat undersöka och ta itu med problemet med partiskhet [33] [34] [35] .

Problemet med bias i maskininlärning kommer sannolikt att bli allvarligare när tekniken expanderar till kritiska områden som medicin och juridik, och allt fler människor som inte har djup teknisk kunskap tilldelas uppgiften att implementera den. Vissa experter varnar för att algoritmisk bias redan är utbredd i många branscher och att nästan ingen anstränger sig för att identifiera eller korrigera den [36] .

Ansvar för delvis eller helt självkörande bilar

Det finns all anledning att tro att den utbredda användningen av delvis eller helt obemannade fordon är oundviklig i framtiden . Men helt autonoma teknologier ställer oss inför nya problem och utmaningar [37] [38] [39] . Nyligen har det varit en debatt om parternas rättsliga ansvar när obemannade fordon råkar ut för en olycka [40] [41] . I en av rapporterna [42] körde en förarlös bil på en fotgängare och problemet uppstod om vem som var skyldig till olyckan. Trots att föraren befann sig i bilen vid olyckstillfället låg kontrollerna helt i datorns händer. Den här typen av frågor måste åtgärdas innan självkörande bilar blir utbredda [43] [44] [45] .

Beväpnad artificiell intelligens

Vissa experter och forskare ifrågasätter användningen av robotar i strid, särskilt när sådana robotar ges en viss grad av autonomi [46] [47] . Den amerikanska flottan finansierade en rapport som indikerar att när stridsrobotar blir mer sofistikerade, bör mer uppmärksamhet ägnas åt konsekvenserna av deras förmåga att fatta oberoende beslut [48] [49] .

Under det senaste decenniet har det pågått intensiv forskning om självlärande autonomi med tilldelat moraliskt ansvar. "Resultaten kan användas i utvecklingen av framtida militära robotar för att kontrollera oönskade tendenser att lägga ansvar på robotar" [50] . Ur konsekvenssynpunkt är det möjligt att robotar kommer att utveckla förmågan att ta sina egna logiska beslut om vem de ska döda, och därför finns det moraliska begränsningar som AI inte kan kringgå [51] .

Nyligen har det funnits röster av protester mot utvecklingen av AI-vapen som skulle innefatta idén om en robot som tar över mänskligheten. AI-vapen medför en annan typ av fara än människokontrollerade vapen. Många regeringar har redan börjat finansiera program för att utveckla AI-vapen. Den amerikanska flottan tillkännagav nyligen planer på att utveckla en attackdrönare , parallellt med liknande tillkännagivanden från Ryssland och Korea. Med AI-vapen som blev farligare än människokontrollerade vapen, skrev Stephen Hawking och Max Tegmark på petitionen Future of Life [52] för att förbjuda AI-vapen. En rapport publicerad av Hawking och Tegmark säger att AI-vapen utgör en omedelbar fara och att åtgärder måste vidtas för att undvika katastrofala konsekvenser inom en snar framtid [53] .

"Om någon större militär styrka främjar utvecklingen av AI-vapen är en global kapprustning nästan oundviklig , och som ett resultat kommer autonoma vapen att bli morgondagens Kalashnikov-attackgevär", står det i petitionen, som inkluderar motståndare till väpnad AI: Skype grundare Jaan Tallinn och MIT professor i lingvistik Noam Chomsky [54] .

Fysikern och astronomen Sir Martin Rees varnar för sådana katastrofala exempel som "dumma robotar som blir oseriösa eller ett nätverk som utvecklar sin egen intelligens." Hugh Price , en Cambridge-kollega till Rhys's, lät en liknande varning om att människor kanske inte skulle överleva om intelligens "flydde biologiska gränser". vid University of Cambridge skapade de Center for the Study of Existential Riski hopp om att undvika detta hot mot människans existens [53] .

När det gäller möjligheten att använda "smartare än mänskliga" system i militära angelägenheter, projektet Open Philanthropyskriver att dessa scenarier "potentiellt verkar lika viktiga som riskerna med att förlora kontrollen", men forskningsorganisationer som fokuserar på den långsiktiga sociala effekten av AI har inte tillräckligt utforskat denna fråga: "den här klassen av scenarier har inte varit i fokus för dessa frågor, organisationer som Machine Intelligence Research Institute (MIRI) och Future of Humanity Institute (FHI) och därför mindre diskuterade” [55] .

Maskinetik

Maskinetik (eller maskinmoral) är ett forskningsfält relaterat till utvecklingen av artificiella moraliska agenter .(IMA), robotar eller artificiellt intelligenta datorer som beter sig moraliskt eller så att säga moraliskt [56] [57] [58] [59] . För att ta hänsyn till arten av dessa agenter har det föreslagits att överväga några filosofiska idéer såsom standardegenskaperna för subjekt , rationella agenter , moraliska faktoreroch artificiell subjektivitet, som är förknippade med begreppet IMA [60] .

Isaac Asimov tog upp denna fråga på 1950-talet i sin I, Robot-serie med noveller. På uppmaning av sin redaktör John W. Campbell, Jr. att kontrollera artificiellt intelligenta system, föreslog han Robotics Three Laws . Mycket av hans arbete ägnades åt att testa gränserna för hans tre lagar för att se var de kan bryta eller var de kan orsaka paradoxalt eller oväntat beteende. Hans arbete tyder på att ingen enstaka etablerad lag på ett adekvat sätt kan förutse alla möjliga omständigheter. Nyligen har forskare och många regeringar ifrågasatt idén om att hålla AI ansvarig [61] . En kommission som sammankallades av Storbritannien 2010 reviderade Asimov-lagarna för att klargöra att AI är antingen dess producenters eller dess ägares/operatörs ansvar [62] .

2009, under ett experiment vid Laboratory for Intelligent Systems vid Polytechnic School of Lausanne i Schweiz , lärde sig robotar som var programmerade att samarbeta med varandra (i jakt på användbara resurser och undvika giftiga) så småningom att ljuga för varandra i en försök att samla användbara resurser [63] . Ett problem i det här fallet kan vara att målen var "ändliga" (medan grundläggande mänskliga motiv vanligtvis har en kvalitet som kräver oändlig inlärning) [64] .

Vissa experter och forskare har ifrågasatt användningen av robotar för strid, särskilt när sådana robotar ges vissa grader av autonoma funktioner [46] . Den amerikanska flottan finansierade en rapport som indikerar att allt eftersom militära robotar blir mer komplexa, bör mer uppmärksamhet ägnas åt konsekvenserna av deras förmåga att fatta oberoende beslut [65] [49] .

Vernor Vinge föreslog att det kan komma en tid då vissa datorer blir smartare än människor och kallar detta fenomen för en singularitet [66] . Han föreslår att detta kan vara delvis eller till och med mycket farligt för människor [67] . Machine Intelligence Research Institute har föreslagit behovet av " Friendly AI ", vilket betyder att de framsteg som redan sker med AI också bör innefatta ansträngningar för att skapa en vänligare och mer human AI.

2009 deltog forskare och tekniska experter i en konferens som anordnades av Association for the Advancement of Artificiell Intelligensatt diskutera den potentiella påverkan av robotar och datorer och effekten av den hypotetiska möjligheten att de skulle kunna bli självförsörjande och kapabla att fatta sina egna beslut. De diskuterade möjligheten och omfattningen i vilken datorer och robotar kunde förvärva alla nivåer av autonomi, och i vilken utsträckning de kunde använda sådana möjligheter för att utgöra något hot eller fara. De noterade att vissa maskiner har förvärvat olika former av semi-autonomi, inklusive förmågan att självständigt hitta energikällor och förmågan att självständigt välja mål för attack med vapen. De noterade också att vissa datavirus kan undvika att dödas och har uppnått "kackerlackaintelligens". De noterade att självmedvetenhet som avbildas i science fiction förmodligen är osannolik, men det finns andra potentiella faror och fallgropar [66] .

Det finns dock en teknik som faktiskt kan leda till robotar med moraliska krafter. I en artikel om förvärvet av moraliska värderingar av robotar , Nayef Al-Rodhannämner ett fall av neuromorfchips som försöker bearbeta information på samma sätt som människor, icke-linjärt och med miljontals sammankopplade artificiella neuroner [68] . Robotar med inbyggd neuromorf teknologi kan lära sig och utveckla kunskap på ett unikt sätt. Detta väcker oundvikligen frågan om den miljö i vilken sådana robotar kommer att lära sig världen och moralen som de kommer att ärva, eller om de så småningom också kommer att utveckla mänskliga "svagheter": själviskhet, attityd till överlevnad, tvekan, etc.

I Moral Machines: Teaching Robots Right Through Wrong [69] drar Wendell Wallach och Colin Allen slutsatsen att försök att lära robotar att göra rätt genom fel kan främja förståelsen av mänsklig etik, motivera människor att ta itu med luckor i nuvarande normativa teorier och tillhandahålla en plattform för experimentell forskning. Som ett exempel ställer han normativa etiker den diskutabla frågan om vilka speciella maskininlärningsalgoritmer som ska användas. Nick Bostrom och Eliezer Yudkowsky argumenterar för beslutsträd (som ID3 ) över neurala nätverk och genetiska algoritmer eftersom beslutsträd lyder moderna sociala normer för transparens och förutsägbarhet (som stare decisis ) [70] , medan Chris Santos Lang hävdar att normer för alla ålder kan ändras och att ett naturligt misslyckande med att fullt ut uppfylla dessa särskilda normer är avgörande för att göra människor mindre sårbara för kriminella " hackers " [64] .

Enligt en rapport från 2019 från Center for AI Governance vid Oxford University anser 82 % av amerikanerna att robotar och AI måste hanteras noggrant. Frågor som diskuterades sträckte sig från hur AI används för att spionera på och sprida falskt innehåll online (känd som deepfakes när det inkluderar falsk AI-genererad video och ljud), till cyberattacker, attacker mot datasekretess, rekryteringsbias, obemannade fordon och drönare som gör det. kräver inte en mänsklig kontrollant [71] .

Oväntade konsekvenser

Många forskare hävdar att som ett resultat av den "intellektuella explosionen" som inträffade någonstans på 2000-talet, kan självförbättrande AI bli så kraftfull att vi inte kan hindra den från att uppnå sina mål [72] . I sin artikel "Ethical Issues in Advanced Artificial Intelligence" hävdar filosofen Nick Bostrom att artificiell intelligens har potential att orsaka mänsklig utrotning. Han hävdar att den allmänna superintelligensen är kapabel till oberoende initiativ och skapandet av sina egna planer, och därför är det lämpligare att betrakta den som en autonom agent. Eftersom artificiell intelligens inte krävs för att dela mänskliga motiv, utvecklarna av superintelligensborde ha lagt sin ursprungliga motivation. Teoretiskt sett kan en superintelligent AI leda till nästan alla möjliga resultat och stoppa alla försök att störa sitt huvudmål, många okontrollerbara oavsiktliga konsekvenser kan uppstå . Detta kan döda alla andra agenter, övertyga dem att ändra sitt beteende eller blockera deras försök att ingripa [73] .

Men istället för att överträffa mänskligheten och leda den till förstörelse, hävdar Bostrom också att superintelligens kan hjälpa oss att lösa många komplexa problem som sjukdomar, fattigdom, miljöförstöring och kan hjälpa oss att "förbättra" oss själva [74] .

Komplexiteten i mänskliga värdesystem gör det mycket svårt att skapa människovänliga AI-motiveringar [72] [73] . Så länge moralfilosofin inte ger oss en felfri etisk teori, kan AI-verktygsfunktionen tillåta många potentiellt skadliga scenarier som passar det givna etiska ramverket men som inte passar "sunt förnuft". Enligt Eliezer Yudkowsky har vi liten anledning att tro att ett artificiellt skapat sinne skulle ha en sådan anpassning [75] .

Bill Hibbard [15] föreslog en AI-design som undviker vissa typer av oavsiktligt beteende, inklusive självbedrägeri, oavsiktliga instrumentella handlingar och skada på belöningsgeneratorn.

Organisationer

Amazon , Google , Facebook , IBM och Microsoft har bildat ett ideellt partnerskap för att utveckla AI-teknikens bästa praxis, förbättra allmänhetens förståelse och tillhandahålla en AI-plattform. De sa: "Detta AI-partnerskap kommer att bedriva forskning, organisera diskussioner, tillhandahålla tankeledarskap, samråda med relevant tredje part, svara på frågor från allmänheten och media och skapa läromedel som främjar förståelsen för AI-teknik, inklusive maskinuppfattning, inlärning och automatiskt resonemang” [76] . Apple anslöt sig till andra teknikföretag som en av grundarna av Artificial Intelligence Partnership i januari 2017. Företagsmedlemmar kommer att ge ekonomiska och forskningsbidrag till gruppens arbete och interagera med det vetenskapliga samfundet för att locka forskare till styrelsen [77] .

IEEE har utvecklat Global Initiative on the Ethics of Autonomous and Intelligent Systems Archived October 6, 2019 at the Wayback Machine , som utvecklar och granskar allmänna opinionsriktlinjer och välkomnar många experter från och utanför organisationen som sina medlemmar.

Traditionellt har regeringen använts av allmänheten för att kontrollera etiken inom ramen för lag och ordning. För närvarande gör nationella regeringar, såväl som transnationella statliga och icke-statliga organisationer, stora ansträngningar för att säkerställa en etisk användning av AI.

I populärkulturen

Filmen The Thirteenth Floor skildrar en framtid där spelkonsoler skapar simulerade världar med kännande invånare för underhållning . Filmen " The Matrix " visar en framtid där intelligenta maskiner är den dominerande arten på planeten jorden och mänskligheten utsätts för extrem diskriminering. I novellen " Plancks nedsänkning” visar en framtid där mänskligheten har blivit mjukvara som kan dupliceras och optimeras, och motsvarande distinktion mellan typer av mjukvara är rimlig och inte känslig. Samma idé kan hittas i Starship Voyager Emergency Medical Hologram , som är en uppenbarligen kännande kopia av en reducerad delmängd av medvetandet hos dess skapare, Dr. Zimmerman , som i god tro skapade ett system för att ge akut medicinsk vård. Filmerna Bicentennial Man och Artificial Intelligence utforskar möjligheterna hos kännande robotar som kan älska. " I, Robot " visade några aspekter av Asimovs tre robotlagar . Alla försöker förutse de eventuellt oetiska konsekvenserna av att bygga intelligenta datorer.

Etiken kring artificiell intelligens är ett av huvudteman i BioWares Mass Effect -spelserie . Hon överväger ett scenario där en civilisation av misstag skapade AI genom en snabb ökning av datorkraften med hjälp av ett globalt neuralt nätverk . Denna händelse orsakade en etisk klyfta mellan de som trodde att kännande Geth kunde förses med organiska rättigheter och de som fortsatte att se dem som en engångsmekanism och kämpade för att förstöra dem. Bortsett från den inledande konflikten är ett annat återkommande tema genom hela berättelsen komplexiteten i förhållandet mellan maskinerna och deras skapare.

Se även

Forskare Organisationer

Anteckningar

  1. Veruggio, Gianmarco. The Roboethics Roadmap  (neopr.) . — Scuola di Robotica, 2007.
  2. WoodyPosthuman Rights: Dimensions of Transhuman Worlds  (neopr.)  // Teknokultura. - 2015. - T. 12 , nr 2 . - doi : 10.5209/rev_TK.2015.v12.n2.49072 .
  3. Jurij Artificiell personlig autonomi och koncept för roboträttigheter  (engelska)  : tidskrift. — European Journal of Law and Political Sciences, 2017.
  4. The American Heritage Dictionary of the English Language, fjärde upplagan
  5. Robotar kunde kräva lagliga rättigheter , BBC News (21 december 2006). Arkiverad från originalet den 15 oktober 2019. Hämtad 3 januari 2010.
  6. 12 Henderson . _ mänskliga rättigheter för robotar? Vi rycker med , The Times Online , The Times of London (24 april 2007). Arkiverad från originalet den 17 maj 2008. Hämtad 2 maj 2010.
  7. McGee. En etisk kod för robotar . Vetenskapsmannen. Hämtad 10 oktober 2019. Arkiverad från originalet 6 september 2020.
  8. Ray Kurzweil . Singulariteten är nära  (neopr.) . - Penguin Books , 2005. - ISBN 978-0-670-03384-3 .
  9. Den stora frågan: Bör människosläktet vara orolig över framväxten av robotar? , oberoende tidning.
  10. Saudiarabien skänker medborgarskap till en robot som heter Sophia . Hämtad 10 oktober 2019. Arkiverad från originalet 27 oktober 2017.
  11. Vincent . Att låtsas ge en robot medborgarskap hjälper ingen , The Verge (30 oktober 2017). Arkiverad från originalet den 3 augusti 2019. Hämtad 10 oktober 2019.
  12. ↑ Nära kontakter med konstgjorda följeslagare : viktiga sociala, psykologiska, etiska och designfrågor  . Amsterdam: John Benjamins Pub. Co, 2010. - ISBN 978-9027249944 .
  13. 1 2 Joseph Weizenbaum , citerad i McCorduck, 2004 , s. 356, 374–376
  14. Kaplan Andreas; Michael Haenlein (2018) Siri, Siri i min hand, vem är den vackraste i landet? On the Interpretations, Illustrations and Implikations of Artificial Intelligence, Business Horizons, 62(1) (död länk) . Hämtad 10 oktober 2019. Arkiverad från originalet 21 november 2018. 
  15. 1 2 Hibbard, Bill (2014): " Etisk artificiell intelligens ".
  16. Open Source AI. Arkiverad 4 mars 2016 på Wayback Machine Bill Hibbard. 2008 års förhandlingar från den första konferensen om artificiell allmän intelligens, red. Pei Wang, Ben Goertzel och Stan Franklin.
  17. OpenCog: A Software Framework for Integrative Artificiell General Intelligence. Arkiverad 4 mars 2016 på Wayback Machine David Hart och Ben Goertzel. 2008 års förhandlingar från den första konferensen om artificiell allmän intelligens, red. Pei Wang, Ben Goertzel och Stan Franklin.
  18. Inside OpenAI, Elon Musks vilda plan för att sätta artificiell intelligens gratis Arkiverad 27 april 2016 på Wayback Machine Cade Metz, Wired 27 april 2016.
  19. P7001 - Transparens för autonoma system . P7001 - Transparens för autonoma system . IEEE. Hämtad 10 januari 2019. Arkiverad från originalet 10 januari 2019. .
  20. Thurm . MICROSOFT efterlyser en federal reglering av ansiktsigenkänning , trådbunden (13 juli 2018). Arkiverad 9 maj 2019. Hämtad 10 oktober 2019.
  21. Bastin. Den allmänna dataskyddsförordningen Branschöverskridande innovation (inte tillgänglig länk) . Innetidning . Deloitte (juni 2017). Hämtad 11 oktober 2019. Arkiverad från originalet 10 januari 2019. 
  22. FN:s toppmöte om artificiell intelligens syftar till att ta itu med fattigdom, mänsklighetens "stora utmaningar  " . UN News (7 juni 2017). Hämtad 26 juli 2019. Arkiverad från originalet 26 juli 2019.
  23. Artificiell intelligens - Organisationen för ekonomiskt samarbete och  utveckling . www.oecd.org . Hämtad 26 juli 2019. Arkiverad från originalet 22 juli 2019.
  24. Anonym. European AI  Alliance . Digital Single Market - Europeiska kommissionen (14 juni 2018). Hämtad 26 juli 2019. Arkiverad från originalet 1 augusti 2019.
  25. EU Tech Policy Brief: Sammanfattning av juli  2019 . Centrum för demokrati & teknik . Hämtad 9 augusti 2019. Arkiverad från originalet 9 augusti 2019.
  26. Samhälle. Fallet för rättvisare algoritmer - DeepMind Ethics & Society  . Medium (14 mars 2018). Hämtad 22 juli 2019. Arkiverad från originalet 22 juli 2019.
  27. 5 oväntade källor till partiskhet i artificiell  intelligens . TechCrunch . Hämtad 22 juli 2019. Arkiverad från originalet 18 mars 2021.
  28. Riddare. Googles AI-chef säger att glöm Elon Musks mördarrobotar och oroa dig för partiskhet i AI-system  istället . MIT Technology Review . Hämtad 22 juli 2019. Arkiverad från originalet 4 juli 2019.
  29. Villasenor. Artificiell intelligens och partiskhet: Fyra nyckelutmaningar  (engelska) . Brookings (3 januari 2019). Hämtad 22 juli 2019. Arkiverad från originalet 22 juli 2019.
  30. Lohr . Ansiktsigenkänning är korrekt, om du är en vit kille  (eng.) , The New York Times  (9 februari 2018). Arkiverad från originalet den 9 januari 2019. Hämtad 29 maj 2019.
  31. Amazon skrotar hemligt AI-rekryteringsverktyg som visade partiskhet mot kvinnor  , Reuters (  10 oktober 2018). Arkiverad 27 maj 2019. Hämtad 29 maj 2019.
  32. ↑ Eliminera fördomar i AI  . techxplore.com . Hämtad 26 juli 2019. Arkiverad från originalet 25 juli 2019.
  33. Olson. Googles DeepMind har en idé för att stoppa partisk AI  . Forbes . Hämtad 26 juli 2019. Arkiverad från originalet 26 juli 2019.
  34. Rättvisa för maskininlärning | ML  Rättvisa . Google Developers . Hämtad 26 juli 2019. Arkiverad från originalet 10 augusti 2019.
  35. AI och bias - IBM Research - USA  (eng.)  (otillgänglig länk) . www.research.ibm.com (ERSÄTT). Hämtad 26 juli 2019. Arkiverad från originalet 17 juli 2019.
  36. Riddare. Googles AI-chef säger att glöm Elon Musks mördarrobotar och oroa dig för partiskhet i AI-system  istället . MIT Technology Review . Hämtad 26 juli 2019. Arkiverad från originalet 4 juli 2019.
  37. Davies . Googles självkörande bil orsakade sin första krasch , trådbunden  (29 februari 2016). Arkiverad från originalet den 7 juli 2019. Hämtad 26 juli 2019.
  38. Lista över dödade i självkörande bilar , 2019-06-05 , < https://en.wikipedia.org/w/index.php?title=List_of_self-driving_car_fatalities&oldid=900361661 > . Hämtad 26 juli 2019. 
  39. Levine . Självkörande Uber dödar en kvinna i Arizona i den första dödsolyckan med fotgängare  (eng.) , The Guardian  (19 mars 2018). Arkiverad från originalet den 26 juli 2019. Hämtad 26 juli 2019.
  40. Vem är ansvarig när en självkörande bil råkar ut för en olycka?  (engelska) . Futurism . Hämtad 26 juli 2019. Arkiverad från originalet 26 juli 2019.
  41. Radio. Autonoma bilolyckor: Vem - eller vad - är att skylla?  (engelska) . Knowledge@Wharton . Hämtad 26 juli 2019. Arkiverad från originalet 26 juli 2019.
  42. Delbridge. Förarlösa bilar som blivit vilda  . Balansen . Hämtad 29 maj 2019. Arkiverad från originalet 29 maj 2019.
  43. Bestämmelser för förarlösa  bilar . GOV.UK. _ Hämtad 26 juli 2019. Arkiverad från originalet 26 juli 2019.
  44. Automatiserad körning: Lagstiftande och reglerande åtgärder - CyberWiki (nedlänk) . cyberlaw.stanford.edu . Hämtad 26 juli 2019. Arkiverad från originalet 26 juli 2019. 
  45. Autonoma fordon | Lagstiftning för självkörande fordon . www.ncsl.org . Hämtad 26 juli 2019. Arkiverad från originalet 26 juli 2019.
  46. 1 2 Uppmaning till debatt om mördarrobotar Arkiverad 7 augusti 2009 på Wayback Machine , av Jason Palmer, vetenskaps- och teknikreporter, BBC News, 8/3/09 .
  47. Robot Three-Way Portends Autonomous Future Arkiverad 7 november 2012 på Wayback Machine , av David Axe wired.com, 13 augusti 2009.
  48. Ny marinfinansierad rapport varnar för krigsrobotar som går "Terminator" Arkiverad 28 juli 2009. , av Jason Mick (Blogg), dailytech.com, 17 februari 2009.
  49. 1 2 Marinrapport varnar för robotuppror, föreslår en stark moralisk kompass Arkiverad 4 juni 2011 på Wayback Machine , av Joseph L. Flatley engadget.com, 18 februari 2009.
  50. Om militärrobotarnas moraliska ansvar - ProQuest . Hämtad 11 oktober 2019. Arkiverad från originalet 5 juli 2019.
  51. Mitra. Vi kan träna AI för att identifiera gott och ont och sedan använda det för att lära oss  moral . Kvarts . Hämtad 26 juli 2019. Arkiverad från originalet 26 juli 2019.
  52. AI - principer  . Future of Life Institute . Hämtad 26 juli 2019. Arkiverad från originalet 11 december 2017.
  53. 1 2 Zach Musgrave och Bryan W. Roberts. Varför artificiell intelligens för lätt kan beväpnas - Atlanten . Atlanten (14 augusti 2015). Hämtad 11 oktober 2019. Arkiverad från originalet 11 april 2017.
  54. Katt Zakrzewski. Musk, Hawking varnar för artificiell intelligensvapen . WSJ (27 juli 2015). Hämtad 13 oktober 2019. Arkiverad från originalet 28 juli 2015.
  55. Ge väl,Potentiella risker från avancerad artificiell intelligens, < http://www.givewell.org/labs/causes/ai-risk > . Hämtad 13 oktober 2019. . 
  56. Andersson. Maskinetik . Hämtad 27 juni 2011. Arkiverad från originalet 28 september 2011.
  57. Maskinetik  (obestämd) / Anderson, Michael; Andersson, Susan Leigh. - Cambridge University Press , 2011. - ISBN 978-0-521-11235-2 .
  58. Specialutgåva om maskinetik  //  IEEE Intelligent Systems : journal. — Vol. 21 , nr. 4 . - S. 10-63 . — ISSN 1541-1672 . - doi : 10.1109/mis.2006.70 . Arkiverad från originalet den 26 november 2011.
  59. Michael; Andersson. Maskinetik: Skapa en etisk intelligent agent  //  AI Magazine : tidskrift. — Vol. 28 , nr. 4 . - S. 15-26 . — ISSN 0738-4602 .
  60. Robert James M.; Boyles. Filosofiska vägvisare för Artificiella Moral Agent Frameworks  (engelska)  // Suri : journal. - 2017. - Oktober ( vol. 6 , nr 2 ). - S. 92-109 .
  61. Joanne; Bryson. Av, för och av folket: den juridiska luckan hos syntetiska personer  (engelska)  // Artificial Intelligence and Law: journal. - 2017. - September ( vol. 25 , nr 3 ). - S. 273-291 . - doi : 10.1007/s10506-017-9214-9 .
  62. Principer för robotik (nedlänk) . Storbritanniens EPSRC (september 2010). Hämtad 10 januari 2019. Arkiverad från originalet 1 april 2018. 
  63. Evolving Robots Lär dig att ljuga för varandra Arkiverad 28 augusti 2009 på Wayback Machine , Popular Science, 18 augusti 2009
  64. 12 Santos -Lang. Etik för artificiell intelligens . Hämtad 13 oktober 2019. Arkiverad från originalet 25 december 2014.
  65. Vetenskapens nya marinfinansierade rapport varnar för krigsrobotar som går "Terminator" Arkiverad 28 juli 2009. , av Jason Mick (Blogg), dailytech.com, 17 februari 2009.
  66. 1 2 Scientists Worry Machines May Outsmart Man Arkiverad 1 juli 2017 på Wayback Machine av JOHN MARKOFF, NY Times, 26 juli 2009.
  67. The Coming Technological Singularity: How to Survive in the Post-Human Era Arkiverad 1 januari 2007 på Wayback Machine , av Vernor Vinge, Institutionen för matematiska vetenskaper, San Diego State University, (c) 1993 av Vernor Vinge.
  68. Al-Rodhan . The Moral Code  (engelska) , Foreign Affairs  (12 augusti 2015). Arkiverad från originalet den 5 mars 2017. Hämtad 23 januari 2018.
  69. Wallach, Wendell; Allen, Colin. Moraliska maskiner : Lära robotar rätt från fel  . — USA: Oxford University Press , 2008. — ISBN 978-0-19-537404-9 .
  70. Boström. The Ethics of Artificial Intelligence (länk ej tillgänglig) . Cambridge Handbook of Artificiell Intelligens . Cambridge Press . Hämtad 13 oktober 2019. Arkiverad från originalet 4 mars 2016. 
  71. Howard. Regleringen av AI – bör organisationer vara oroliga? | Ayanna Howard  (engelska) . MIT Sloan Management Review . Hämtad 14 augusti 2019. Arkiverad från originalet 14 augusti 2019.
  72. 1 2 Muehlhauser, Luke och Louie Helm. 2012. "Intelligence Explosion and Machine Ethics" Arkiverad 7 maj 2015 på Wayback Machine . I Singularity Hypotheses: A Scientific and Philosophical Assessment, redigerad av Amnon Eden, Johnny Søraker, James H. Moor och Eric Steinhart. Berlin: Springer.
  73. 1 2 Boström, Nick. 2003. "Ethical Issues in Advanced Artificial Intelligence" Arkiverad 8 oktober 2018 på Wayback Machine . I Cognitive, Emotive and Ethical Aspects of Decision Making in Humans and in Artificial Intelligence, redigerad av Iva Smit och George E. Lasker, 12-17. Vol. 2. Windsor, ON: International Institute for Advanced Studies in Systems Research / Cybernetics.
  74. Visst, artificiell intelligens kan göra slut på vår värld, men det är inte huvudproblemet  // Wired  :  magazine. - 2014. - 4 december.
  75. Yudkowsky, Eliezer. 2011. "Complex Value Systems in Friendly AI" Arkiverad 29 september 2015 på Wayback Machine . I Schmidhuber, Thorisson och Looks 2011, 388-393.
  76. "Partnerskap om artificiell intelligens för att gynna människor och samhälle". Np, den 24 oktober 2016.
  77. Fiegerman, Seth. Facebook, Google, Amazon Skapa grupp för att lindra AI-problem. CNNMoney. den 4 december 2016.
  78. CCC erbjuder utkast till 20-årig AI-färdplan;  Söker kommentarer . HPCwire (14 maj 2019). Hämtad 22 juli 2019. Arkiverad från originalet 18 mars 2021.
  79. ↑ Begär kommentarer om utkast: En 20-årig gemenskapsfärdplan för AI-forskning i USA » CCC-blogg  . Hämtad 22 juli 2019. Arkiverad från originalet 14 maj 2019.
  80. Applikationer: Senaste nyheterna om Ryssland och världen - Kommersant Review (139067) - Intellektuella regler

Litteratur

Länkar