Cameră chinezească

Camera chineză este un  experiment de gândire în filosofia minții și filosofia inteligenței artificiale , publicat pentru prima dată de John Searle în 1980. Scopul experimentului este de a respinge afirmația că o mașină digitală, înzestrată cu „ inteligență artificială ” prin programarea ei într-un anumit mod, este capabilă să posede conștiință în același sens în care o posedă o persoană. Cu alte cuvinte, scopul este de a respinge ipoteza așa-numitei inteligențe artificiale „puternice” și de a critica testul Turing .

Acest argument filosofic este încă unul dintre cele mai dezbătute în domeniul științei cognitive . Unii cercetători chiar definesc știința cognitivă drept „un proiect de cercetare pentru a respinge argumentul lui Searle”. Numai din 2010 până în 2014, au fost publicate peste 750 de articole în reviste științifice care discutau despre experimentul gândirii lui Searle [1] .

Informații generale

Experimentul a fost publicat în 1980 în articolul „Minds, Brains, and Programs” în The Behavioral and Brain Sciences .". Chiar înainte de publicare, experimentul a stârnit controverse, așa că articolul conține atât argumentul original al lui Searle, cât și obiecțiile a 27 de oameni de știință cognitiv , precum și răspunsurile lui Searle la aceste obiecții. În plus, experimentul este descris în cartea din 1984 Minds, Brains and Science și în numărul din ianuarie 1990 al revistei Scientific American [1] .

Descrierea experimentului

Imaginează-ți o cameră izolată în care se află John Searle, care nu cunoaște niciun caracter chinezesc . Cu toate acestea, el a scris în carte instrucțiuni exacte pentru manipularea caracterelor de forma „Luați un astfel de personaj din coșul numărul unu și puneți-l lângă un astfel de personaj din coșul numărul doi”, dar aceste instrucțiuni nu conțin informații. despre semnificația acestor caractere, iar Searl urmează pur și simplu aceste instrucțiuni ca pe un computer .

Un observator care cunoaște caracterele chinezești trimite caractere cu întrebări prin fantă în cameră și se așteaptă să primească un răspuns conștient la ieșire. Instrucțiunea este compilată în așa fel încât, după aplicarea tuturor pașilor hieroglifelor întrebării, acestea să fie convertite în hieroglifele răspunsului. De fapt, o instrucțiune este un fel de algoritm computerizat, iar Searle execută algoritmul în același mod în care l-ar executa un computer [2] .

Într-o astfel de situație, observatorul poate trimite orice întrebare semnificativă în cameră (de exemplu, „Ce culoare îți place cel mai mult?”) Și poate primi un răspuns semnificativ (de exemplu, „Albastru”), ca atunci când vorbește cu o persoană care este fluent în scrierea chineză. În același timp, Searl însuși nu are cunoștințe despre hieroglife și nu poate învăța cum să le folosească, deoarece nu poate afla semnificația nici măcar unui personaj. Searle nu înțelege întrebarea inițială și nici răspunsul pe care l-a scris el însuși. Observatorul, la rândul său, poate fi sigur că în cameră există o persoană care cunoaște și înțelege hieroglifele [2] .

Argument

Astfel, Searle concluzionează că, deși un astfel de sistem poate trece testul Turing, nu există o înțelegere a limbajului din interiorul sistemului, ceea ce înseamnă că testul Turing nu este un test adecvat al abilităților mentale. Argumentele lui Searle vizează critica poziția așa-numitei inteligențe artificiale „puternice”, conform căreia computerele cu programul adecvat pot înțelege de fapt limbajul natural, precum și alte abilități mentale inerente omului. Ipoteza inteligenței artificiale slabe, pe de altă parte, spune doar că computerele sunt capabile să imite abilitățile mentale ale omului, așa că Searle nu este interesat de aceasta.

Formal, argumentul poate fi prezentat astfel:

  1. Dacă ipoteza AI „puternică” este corectă, atunci există un program pentru scrierea chineză care, atunci când este rulat pe un sistem informatic, va înțelege scrierea chineză.
  2. Pot rula un program de script chinezesc fără să înțeleg scriptul chinezesc.
  3. Prin urmare, ipoteza AI „puternică” este incorectă.

Al doilea punct este fundamentat de experimentul de gândire al „camera chinezească”. Concluzia sugerează că rularea unui astfel de program nu duce la înțelegerea limbajului. Concluzia mai generală a lui Searle este că orice manipulare a construcțiilor sintactice nu poate duce la înțelegere [1] .

Fundal

Există 3 antecedente importante ale acestui argument filozofic:

Moara Leibniz

Moara Leibniz este un experiment de gândire descris de Gottfried Leibniz în Monadologie . Leibniz sugerează să se imagineze o mașină de mărimea unei morii care simulează sentimentele, gândurile și percepțiile. Și dacă intri în interiorul unei astfel de mașini, atunci niciuna dintre părțile mobile care asigură funcționarea acesteia nu va fi conștiință sau explicație a percepției. Așa că Leibniz a încercat să arate că numai stările fizice nu sunt suficiente pentru funcționarea conștiinței [1] .

Mașina de hârtie a lui Turing

„ Turing Paper Machine ” este un algoritm de mașină pentru jocul de șah, inventat de Alan Turing în 1951 [3] , în care un om a acționat ca mașină de executare. În acest caz, persoana nu trebuia să știe să joace șah, ci pur și simplu trebuia să execute algoritmul bazat pe datele de intrare despre mișcarea adversarului (de exemplu, „când adversarul se mișcă pe N, mutați regina în B7”). . Turing credea că computerele ar fi capabile să țină o conversație în limbajul uman și pentru aceasta a dezvoltat ceea ce se numește acum testul Turing [1] .

națiune chineză

„Națiunea chineză” este un experiment de gândire propus de Ned Block în 1978 pentru a respinge funcționalismul . Experimentul lui Block este similar cu „camera chinezească”, dar Block își propune să folosească mulți chinezi, fiecare dintre ele ar emula un neuron artificial al creierului. Într-un astfel de sistem, fiecare chinez ar avea un număr de telefon și o listă cu numerele altor chinezi. În funcție de momentul în care suna telefonul unui anumit chinez, el va suna pe cineva de pe lista lui. În acest caz, transmiterea unui mesaj prin telefon nu este necesară, este necesar doar faptul unui apel (există și o interacțiune între neuroni). Apoi, dacă într-un astfel de sistem se creează o stare funcțională, care apare în timpul percepției durerii, întreaga „națiune chineză” va fi într-o stare de durere, în timp ce niciunul dintre chinezi nu va simți această durere. Acest lucru se aplică oricăror stări și sentimente mentale [1] .

Critica

Experimentul de gândire a atras critici intense în mediul academic. Diferite argumente au fost prezentate împotriva argumentului lui Searle.

Argument despre sistem

Unii critici cred că nu o persoană dintr-o cameră a trecut testul Turing, ci un sistem format dintr-o cameră, o carte de reguli și o persoană. Searle, în opinia lor, abate atenția de la acest fapt ascunzând erori logice și concentrându-se asupra uneia dintre componentele sistemului, care în acest caz efectuează lucrări pur mecanice [4] . Sistemul cărții de reguli, persoană și cameră, în opinia lor, este rezonabil și înțelege limba chineză. Ca contraargument, Searle propune să forțeze o persoană să-și amintească regulile formale de răspuns pentru sistem. Potrivit filozofului, sistemul, care acum va fi format doar dintr-o persoană, tot nu va putea înțelege limba chineză [1] [5] .

Robot

Unii critici sunt de acord că respectarea unor instrucțiuni simple în limbajul uman nu creează înțelegere, dar asta nu înseamnă că o astfel de înțelegere nu poate fi creată în principiu. De exemplu, acești critici cred că efectul înțelegerii este realizabil dacă creați un robot cu un program de auto-învățare, precum și îl echipați cu senzori pentru a percepe lumea. Un astfel de robot, în opinia lor, poate interacționa cu lumea, o poate cunoaște și poate învăța ca un copil și, prin urmare, începe să înțeleagă în același mod ca o persoană. Searle a susținut că același argument se aplică și în cazul unui robot. Searle a propus să pună o persoană în interiorul robotului, iar persoana respectivă, în funcție de hieroglifele văzute prin senzori, va mișca corpul robotului și, în același timp, nu ar înțelege ceea ce se întâmplă, ci doar va efectua sintactici. manipulări asupra simbolurilor [1] [5] .

Creier artificial

Deoarece algoritmii de computer nu funcționează ca un creier adevărat, unii critici au sugerat recrearea rețelei neuronale a unei persoane care vorbește chineză. Atunci o astfel de rețea neuronală ar trebui să înțeleagă hieroglifele în același mod ca o persoană. La aceasta, Searle a obiectat că nici măcar simularea creierului nu este suficientă pentru a crea efectul înțelegerii și a propus o „camera chinezească” modificată. Într-o astfel de cameră, în loc de neuroni, vă puteți imagina conducte de apă, iar o persoană din interiorul camerei comută aceste conducte conform instrucțiunilor, în funcție de semnalele de intrare. În același timp, înțelegerea hieroglifelor nu apare nici la o persoană, nici în conductele de apă [1] [5] .

Alte minți

O altă obiecție la „camera chinezească” se bazează pe faptul că stabilim dacă o persoană înțelege caracterele chinezești doar prin comportamentul său. Dacă un computer se comportă la fel ca o persoană care vorbește chineză, atunci ar trebui să presupunem că și computerul îl înțelege. La astfel de critici, Searle a răspuns că scopul argumentului nu este modul în care știm că alți oameni au stări mentale, ci că au stări mentale. Din punctul de vedere al lui Searle, stările mentale nu pot fi definite pur și simplu ca un proces de calcul și rezultatul său, deoarece nu necesită o stare mentală [1] [5] .

Intuiția

Mulți cercetători l-au criticat pe Searle pentru că s-a bazat pe intuiție în judecățile sale despre termenii „înțelegere” și „conștiință”. Cu toate acestea, multe lucruri sunt contraintuitive chiar și în știința modernă, așa că nu ar trebui să se bazeze pe intuiție în judecățile despre inteligența artificială. Ca o ilustrare , S. Pinker citează un eseu științifico-fantastic în care extratereștrii cu o formă diferită de conștiință ajung pe Pământ și nu pot crede că oamenii sunt capabili să înțeleagă ceva, deoarece există carne în capul lor. Potrivit lui Pinker, intuiția îi eșuează pe extratereștri în același mod în care eșuează pe Searle [1] . D. Hofstadter a mai afirmat că autorul pur și simplu nu acceptă ideea posibilității unei IA puternice, insistând că i-ar lipsi o „putere cauzală a creierului” miraculoasă, pe care Searle o descrie în moduri diferite și cu lacune în logică. [4] .

Întrebări filozofice generale

Sintaxă și semantică

Searle credea că experimentul „camera chinezească” a ridicat și o întrebare filosofică mai generală cu privire la relația dintre sintaxă și semantică . În opinia sa, experimentul nu a reușit să ajungă la înțelegere, deoarece persoana din interiorul camerei a funcționat doar cu construcții sintactice, în timp ce conștiința are stări mentale care conțin sens. Mintea umană, spre deosebire de computer, percepe hieroglifele nu după cum arată, ci după semnificația pe care o conțin. Și deși computerele pot produce răspunsuri în limbaj natural, ele nu acordă niciun sens cuvintelor. Searle credea că este imposibil să se obțină semnificații semantice doar din manipulări formale de simbol [1] .

La rândul lor, criticii au obiectat că sistemul informatic care execută programul are și conștiință. Într-adevăr, un algoritm scris într-o carte și întins pe un raft de cărți nu poate duce la înțelegere. Dar un algoritm care rulează pe un computer complex care are atât o stare fizică (tensiune pe tranzistor) cât și o interpretare a stării fizice (simboluri) poate da un „efect” de înțelegere. Ca contraexemplu parodic la argumentele lui Searle , D. Chalmers oferă o rețetă pentru un tort, care este o construcție pur sintactică și nu duce la „efectul” friabilității (analog cu „înțelegerea” lui Searle), totuși, prăjiturile sunt friabile, prin urmare, executarea rețetei nu este suficientă pentru aspectul unei prăjituri [ 1] .

Stanislav Lem a susținut că munca descrisă în experimentul Searle este, în general, întotdeauna amantic formal, prin urmare, „înțelegerea” nu participă la textele în sine, cu atât mai puțin „conștiința” (inclusiv în sistemul „instrucțiuni Searl”), - astfel, idee adusă până la absurd, neavând nicio legătură cu problemele reale ale AI [6] [7] .

Minte și corp

Un alt aspect în discuție a fost problema relației dintre corp și minte. Potrivit lui Searle, conștiința este una dintre abilitățile exclusive ale creierului, bazată pe procesele sale neuronale. Adică, Searle este un susținător al teoriei identității în filosofia minții [1] .

Susținătorii funcționalismului, dimpotrivă, cred că orice stare mentală (inclusiv conștiința) este funcțiile pe care le îndeplinește. Prin urmare, conștiința poate fi implementată pe orice platformă care vă permite să îndepliniți aceleași funcții [1] .

Cercetările moderne în domeniul neuroștiinței nu ne permit încă să spunem dacă conștiința este o entitate suficient de abstractă pentru a fi extrasă de neuroni sau, dimpotrivă, este puternic asociată cu baza biologică a funcționării creierului. Această întrebare rămâne deschisă [1] .

Simulare și duplicare

În discuție, Searle a subliniat și diferența dintre simulare și duplicare. La urma urmei, nimeni nu confundă o simulare computerizată a vremii cu vremea reală. Deci, potrivit lui Searle, nu ar trebui să confundăm o simulare computerizată a înțelegerii cu înțelegerea reală. Cu toate acestea, s-au făcut afirmații cu privire la acest argument că este imposibil să distingem simularea de duplicare. De exemplu, nu este clar dacă inima artificială este o simulare a unei inimi reale sau un duplicat. Același lucru este valabil și pentru proteze: oamenii cu proteze merg sau se prefac că merg? Prin urmare, principiul Searle al separării simulării și a duplicării are probleme serioase [1] .

Influență

În ciuda discuțiilor îndelungate ale cercetătorilor din diverse domenii, mai bine de 30 de ani mai târziu, nu există încă un consens cu privire la argumentul lui Searle. Unii numesc acest experiment de gândire cel mai faimos contraexemplu din istorie, dând o lovitură funcționalismului din care nu și-a revenit niciodată. A mai fost numit și argumentul clasic pentru știința cognitivă [8] . Alții (de exemplu, D. Hofstadter, D. Dennett , S. Lem ) consideră acest argument ca fiind vădit eronat și înșelător [9] .

Vezi și

Note

  1. 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 Cole, David. Argumentul camerei chinezești  : [ ing. ] // Enciclopedia de filozofie Stanford . — 2015.
  2. 1 2 Searle, John (ianuarie 1990), Is the Brain's Mind a Computer Program? , Scientific American vol . 262 (1): 26–31, PMID 2294583 
  3. Digital Computers Applied to Games (capitolul 25: Șah), Faster than Thought , ed. BV Bowden, Pitman, Londra (1953).
  4. 1 2 Reflecții asupra articolului lui Searle Minds, Brains, and Programs // The Mind's I [= „Mind’s Eye”]. - Bantam Books, 1981. - [traducere de M. Eskina. - Samara: Bahrakh-M, 2003]
  5. 1 2 3 4 Larry Hauser. Argument  de cameră chinezească . Enciclopedia Internetului de Filosofie . Consultat la 12 noiembrie 2015. Arhivat din original la 27 aprilie 2016.
  6. Tajemnica chińskiego pokoju (Secretul camerei chinezești) // PC Magazine Po Polsku. — 1995.
  7. Tajemnica chińskiego pokoju // Lem Stanisław. Tajemnica chińskiego pokoju [wybór]. - Cracovia: Universitas, 1996. - 285 s. - [traducere de V. I. Yaznevich, 2004]
  8. Stevan Harnad. Minds, Machines and Searle 2: Ce este corect și greșit despre camera chinezească Argument  : [ ing. ] // Oxford University Press. — 2001.
  9. Daniel C. Dennett. Pompe de intuiție și alte instrumente pentru gândire  : [ ing. ] . - Penguin UK: WW Norton & Company, 2014. - S. 320. - 512 p. — ISBN 0393348784 .

Literatură

Link -uri