Filosofin för artificiell intelligens ställer frågor om " tänkande maskiner ", dessa frågor speglar intressen hos olika forskare av artificiell intelligens, filosofer , forskare av kognitiv (kognitiv) aktivitet. Svaren på dessa frågor beror på vad som menas med begreppen " intelligens " eller "medvetande", och vilken typ av "maskiner" som är föremål för diskussion.
Den mest heta debatten i filosofin om artificiell intelligens är frågan om möjligheten att tänka skapelser av mänskliga händer. Frågan "Kan en maskin tänka?", som fick forskare att skapa en vetenskap om att modellera det mänskliga sinnet , ställdes av Alan Turing 1950 . De två huvudsynpunkterna i denna fråga kallas hypoteserna om stark och svag artificiell intelligens .
Termen "stark artificiell intelligens" introducerades av John Searle , och hans tillvägagångssätt kännetecknas av hans egna ord:
Dessutom skulle ett sådant program vara mer än bara en modell av sinnet; det kommer bokstavligen att vara sinnet självt, i samma mening som det mänskliga sinnet är sinnet.
- [1]Däremot föredrar svaga AI-förespråkare att se programvara som bara ett verktyg för att lösa vissa uppgifter som inte kräver hela spektrumet av mänskliga kognitiva förmågor.
I sitt tankeexperiment " Chinese Room " visar John Searle att ens att klara Turing-testet kanske inte är ett tillräckligt kriterium för att en maskin ska ha en genuin tankeprocess.
En liknande ståndpunkt intas av Roger Penrose , som i sin bok The New Mind of the King hävdar att det är omöjligt att få en tankeprocess baserad på formella system [2] .
Också epistemologin är nära relaterad till problemen med artificiell intelligens - kunskapsvetenskapen inom filosofins ramar. Filosofer som hanterar detta problem löser frågor som liknar dem som löses av AI-ingenjörer om hur man bäst representerar och använder kunskap och information.
Det här avsnittet innehåller frågor relaterade till artificiell intelligens och etik.
Dessa frågor behandlas inom ramen för teknikfilosofin och transhumanistisk filosofi .