Trei legi ale roboticii

Versiunea actuală a paginii nu a fost încă revizuită de colaboratori experimentați și poate diferi semnificativ de versiunea revizuită pe 24 iulie 2017; verificarea necesită 71 de modificări .

Cele trei legi ale roboticii în Science Fiction  sunt reguli obligatorii de comportament pentru roboți , articulate pentru prima dată de Isaac Asimov în nuvela Round Dance ( 1942 ).

Legile spun:

  1. Un robot nu poate face rău unei persoane sau, prin inacțiunea sa, nu permite ca o persoană să fie rănită.
  2. Un robot trebuie să se supună tuturor ordinelor date de un om, cu excepția cazului în care acele ordine sunt contrare primei legi.
  3. Robotul trebuie să aibă grijă de propria sa siguranță în măsura în care aceasta nu contrazice Prima sau A doua Lege.
Text original  (engleză)[ arataascunde]
  1. Un robot nu poate răni o ființă umană sau, prin inacțiune, nu poate permite unei ființe umane să facă rău.
  2. Un robot trebuie să respecte ordinele date de ființele umane, cu excepția cazului în care astfel de ordine ar intra în conflict cu Prima Lege.
  3. Un robot trebuie să-și protejeze propria existență atâta timp cât o astfel de protecție nu intră în conflict cu Prima sau A doua Lege.

Cele Trei Legi , precum și posibilele cauze și consecințe ale încălcării lor, sunt dedicate ciclului de povești ale lui Asimov despre roboți. Unii dintre ei, dimpotrivă, se ocupă de consecințele neprevăzute ale roboților care urmează cele Trei Legi (de exemplu, „ Reflecția în oglindă ”).

Într-una dintre poveștile din ciclu, personajul lui Asimov ajunge la concluzia despre baza etică a celor Trei Legi : „... dacă te gândești cu atenție, Cele Trei Legi ale roboticii coincid cu principiile de bază ale majorității sistemelor etice care există pe Pământul... pe scurt, dacă Byerly îndeplinește toate Legile roboticii, el – sau un robot, sau o persoană foarte bine manieră” [1] .

În 1986, în romanul Robots and Empire , Asimov a propus Legea Zeroth  :

0. Un robot nu poate face rău umanității sau, prin inacțiunea sa, nu poate permite să se facă rău umanității.

Text original  (engleză)[ arataascunde]

0. Un robot nu poate dăuna umanității sau, prin inacțiune, poate permite umanității să facă rău.

Cele trei legi ale roboticii  reprezintă o temă unificatoare pentru toată ficțiunea științifico-fantastică a lui Asimov, incluzând nu numai ciclul despre roboți, ci și alte lucrări.

Istoria celor trei legi

Apariția conceptului

Înainte de cele trei legi ale lui Asimov , majoritatea poveștilor despre creaturi artificiale în general și despre roboți în special, au fost scrise în spiritul celebrului roman Frankenstein . „Această problemă a devenit una dintre cele mai populare din lumea science-fiction în anii 1920 și 1930, când s-au scris multe povești, a căror temă era roboții care s-au răzvrătit și și-au distrus creatorii. ... M-am săturat teribil de avertismentele care răsunau în lucrări de acest gen”, [2] , a notat mai târziu Asimov.

Cu toate acestea, nu toți scriitorii de science fiction au urmat acest model. În decembrie 1938, a fost publicată nuvela lui Lester del Rey „Helen O’Loy”  – povestea unei femei robot care s-a îndrăgostit nebunește de creatorul ei și i-a devenit soția ideală [3] . O lună mai târziu, Otto Binder a publicat povestea „Eu, Robot” despre soarta robotului Adam Link – o creatură neînțeleasă de oameni, condusă de iubire și de principiile onoarei [4] .

Lui Asimov i-a plăcut foarte mult această poveste. Pe 7 mai 1939, a vizitat Societatea Science Fiction din Queens , unde l-a cunoscut pe Binder. Trei zile mai târziu, Asimov a început să scrie propria sa poveste despre „robotul nobil”. După 13 zile, a dat manuscrisul prietenului său John Campbell , redactor-șef al revistei Astounding . Totuși, a returnat manuscrisul, afirmând că povestea se aseamănă prea mult cu „Helen O’Loy” [5] .

Din fericire, refuzul lui Campbell nu le-a afectat relația cu Asimov, ei au continuat să se întâlnească regulat și să vorbească despre noutățile din lumea science-fiction. Și aici pe 23 decembrie 1940, în timp ce discutam o altă poveste despre roboți [6] [7] :

...Campbell a formulat ceea ce mai târziu a devenit cunoscut sub numele de Cele Trei Legi ale Roboticii . Campbell a spus mai târziu că a izolat pur și simplu Legile de ceea ce scrisese deja Asimov. Asimov însuși a cedat întotdeauna onoarea dreptului de autor al celor Trei Legi lui Campbell...

Câțiva ani mai târziu, un alt prieten al lui Asimov, Randal Garrett  , a atribuit dreptul de autor al Legii unui „ parteneriat simbiotic ” de doi oameni. Asimov a acceptat cu entuziasm această formulare.

În general, apariția celor Trei Legi în lucrările lui Asimov s-a produs treptat: primele două povești despre roboți („ Robbie ”, 1940 și „ Logic ”, 1941 ) nu le menționează în mod explicit. Cu toate acestea, ele sugerează deja că roboții au unele limitări inerente. În povestea următoare („ Mincinosul ”, 1941), Prima Lege este auzită pentru prima dată . Și, în sfârșit, toate cele trei Legi sunt date în întregime în Dansul rotund ( 1942 ).

Când au fost scrise restul poveștilor și a venit ideea publicării colecției „ Eu, Robot ”, primele două povești au fost „completate” cu Legile . În „Robbie” legile erau oarecum diferite de versiunea „clasică” expusă în restul poveștilor. În special, ideea unui robot care îi protejează pe oameni despre care nu este sigur că există ecou gândurile lui Elijah Bailey despre imperfecțiunea Legilor , descrisă mai jos .

În anii 1950, Asimov a scris în principal pentru tineri. Editorul său a sugerat că aceste povești ar putea fi transformate într-un serial de televiziune . De teamă că adaptarea cinematografică va arăta „intimidantă în mod uniform”, ca tot ceea ce credea că a fost prezentat la televizor, Asimov a decis să publice serialul Lucky Starr sub pseudonimul Paul French . Când adaptarea cinematografică a eșuat, Asimov și-a scos pseudonimul și a completat textul poveștilor din serie cu Cele Trei Legi , confirmându-și astfel calitatea de autor [8] .

Rațiune etică a legilor

În nuvela „ Evidence ” ( 1946 ), Asimov a detaliat rațiunea morală a celor Trei Legi . Eroina poveștii, dr. Susan Kelvin , aduce următoarele argumente:

  1. O persoană se abține de obicei să facă rău altei persoane, cu excepția cazurilor de constrângere acută (cum ar fi în război ) sau pentru a salva mai mulți oameni. Aceasta este echivalentă cu Prima Lege .
  2. În mod similar, simțindu-se responsabilă față de societate, o persoană urmează instrucțiunile oamenilor cu autoritate: medici, profesori, șefi etc., ceea ce corespunde Legii a II- a .
  3. În cele din urmă, fiecăruia dintre noi îi pasă de propria noastră siguranță - și aceasta este a treia lege .

Povestea este dedicată întrebării: este posibil să se facă distincția între o persoană și un robot creat pentru a arăta ca o persoană , care nu se poate distinge în exterior de o persoană? Calvin afirmă că dacă cineva urmează Legile , atunci el este „fie un robot, fie o persoană foarte bună”. Iar întrebată dacă există atunci o mare diferență între un robot și o persoană, ea răspunde: „O diferență uriașă. În primul rând, roboții sunt profund decenți.”

Aplicații ale celor trei legi în afara ficțiunii

Dacă cele Trei Legi au în spate principii etice profunde, atunci poate că acestea pot fi aplicate nu numai roboților? Mulți autori răspund afirmativ la această întrebare, citând diverse exemple.

Deci, în eseul „Legile roboticii” [1] , Asimov notează că cele Trei Legi pot fi extinse la toate instrumentele create de om:

  1. Instrumentul trebuie să fie sigur de utilizat - de exemplu, cuțitele au mânere.
  2. Instrumentul trebuie să-și îndeplinească funcția, cu condiția să nu prezinte niciun pericol pentru nimeni.
  3. Instrumentul trebuie să rămână intact în timpul utilizării sale, cu excepția cazului în care distrugerea sa este dictată de considerente de siguranță sau dacă nu face parte din funcția sa.

Uneori puteți vedea că cele Trei Legi sunt menționate în glumă ca fiind ceva creat pentru binele omului. De exemplu, orice instituție socială , inclusiv statul , ar trebui să cadă în acțiunea lor :

  1. Statul nu trebuie să dăuneze oamenilor sau, prin inacțiunea sa, să permită să le facă rău.
  2. Statul trebuie să-și îndeplinească funcțiile, cu excepția cazului în care acestea sunt contrare Legii întâi .
  3. Statul trebuie să aibă grijă de securitatea sa, dacă acest lucru nu este contrar primei și a doua legi .

Pe baza primei legi , Jeff Raskin a formulat legile interfețelor orientate spre om [9] :

  1. Computerul nu poate dăuna datelor utilizatorului sau, prin inacțiune, nu poate permite deteriorarea datelor.
  2. Computerul nu ar trebui să vă piardă timpul sau să vă oblige să faceți lucruri dincolo de ceea ce este necesar.

Gaia , planeta minții stupului din seria de romane Fundația , posedă ceva asemănător cu Prima Lege :

  1. Gaia nu poate dăuna unei forme de viață sau, prin inacțiune, nu poate permite ca o formă de viață să fie vătămată [10] .

Variațiile lui Asimov

În lucrările sale, Isaac Asimov introduce uneori diverse modificări ale celor Trei Legi și le respinge, ca și cum ar testa Legile „pentru putere” în diferite circumstanțe.

Legea zero

Isaac Asimov a adăugat odată Legea Zeroth , făcând-o o prioritate față de cele trei de bază. Această lege prevedea că robotul trebuie să acționeze în interesul întregii omeniri, și nu doar în interesul unui individ. Așa o exprimă Daniel Olivo, robotul , în romanul Ground and Earth :

0. Un robot nu poate dăuna umanității sau, prin inacțiunea ei, nu poate permite ca omenirea să fie rănită.

El a fost primul care a dat un număr acestei legi - acest lucru s-a întâmplat în romanul „ Roboții și imperiul ”, cu toate acestea, conceptul în sine a fost formulat chiar mai devreme de Susan Calvin  - în nuvela „ Condicție rezolvabilă ”.

Primii roboți care au început să se supună Legii Zero și din propria lor voință au fost Giscard Riventlov și Daniel Olivo . Acest lucru este descris într-una dintre scenele finale ale romanului „ Roboți și imperiu ”, când robotul a trebuit să ignore ordinea unei persoane de dragul progresului întregii omeniri. Legea Zeroth nu a fost încorporată în creierul pozitronic al lui Giscard și Daniel - ei au încercat să ajungă la ea prin înțelegerea pură a lui Giscard și prin experiența detectivă a lui Daniel, printr-o conștientizare mai subtilă a conceptului de rău decât toți ceilalți roboți . Cu toate acestea, Giscard nu era sigur cât de util este pentru umanitate, ceea ce a avut un efect negativ asupra creierului său. Fiind un telepat , Giscard și-a transferat abilitățile telepatice lui Daniel înainte de a ieși din acțiune. Abia după multe mii de ani, Daniel Olivo a fost capabil să se adapteze pe deplin la respectarea Legii Zeroth .

Traducătorul francez Jacques Brecard a formulat fără să vrea Legea Zeroth înainte ca Asimov să o fi descris în mod explicit. Aproape de sfârșitul Peșterilor de oțel , Elijah Bailey remarcă că Prima Lege interzice unui robot să facă rău unui om decât dacă este sigur că îi va fi benefic în viitor. În traducerea franceză („ Les Cavernes d'acier ”, 1956), gândurile lui Bailey sunt transmise oarecum diferit [11] :

Un robot nu poate face rău unui om decât dacă poate dovedi că în cele din urmă va aduce beneficii întregii omeniri.

Textul original  (fr.)[ arataascunde]

Un robot ne doit faire aucun tort à un homme, à moins qu'il trouve un moyen de prouver qu'en fin de compte le tort qu'il aura causé profite à l'humanité en général!

Este de remarcat faptul că creatorii filmului din 2004 „ I, Robot ” au propus dezvoltarea logică a Primei Legi la Zero . Atunci când supercomputerul V.I.K.I. decide să limiteze libertatea locuitorilor planetei, astfel încât aceștia să nu-și facă rău unul altuia din neatenție și viitorul lor, acesta nu respectă Prima Lege , și anume Zero . Și mai interesant este că în acest fel filmul arată contradicția dintre Legea Zeroth și Prima , natura sa lipsită de etică. Într-adevăr, când vine vorba de bunăstarea omenirii, sistemul nu poate lua în considerare oamenii separat, ceea ce înseamnă că nimic nu-l împiedică să încalce drepturile și libertatea oricărei persoane sau chiar a fiecărei persoane (de fapt, în „Condicția rezolvabilă”, supercalculatoarele pozitronice deja s-au comportat în mod similar, diferența este că au încercat să reducă până la limită prejudiciul adus persoanelor). În timpul războaielor și adesea în viața pașnică, oamenii își fac rău pe ei înșiși, pe cei din jur și pe cultura lor. Prin urmare, pe baza Legii Zeroth , este perfect logic să ținem oamenii sub tutelă constantă, fără a urma ordinele unor astfel de ființe neinteligente.

Modificarea Legii I

Notele autobiografice ale lui Asimov spun că a doua parte a Primei Legi a apărut datorită poemului satiric al lui Arthur Hugh Clow „ Ultimul decalog”, care conține versul: „Nu ucide, dar nu te strădui prea mult să salvezi viața altuia”.

În povestea „ Cum robotul s-a pierdut ”, mai mulți roboți din seria HC (Nestor) au fost eliberați doar cu „jumătate” din Prima Lege , care spune:

  1. Un robot nu poate face rău unui om.

Acest lucru a fost făcut din motive practice: roboții au lucrat alături de oameni care au fost expuși la doze mici și sigure de radiații . Respectând prima Lege cu cea mai mare prioritate , roboții s-au grăbit tot timpul să „salveze” oamenii. Deoarece creierul pozitronic este extrem de vulnerabil la razele gamma , roboții au eșuat în mod constant. Trunchierea Primei Legi a rezolvat această problemă, dar, în același timp, a creat una mai mare: robotul nu a putut întreprinde nicio acțiune pentru a salva o persoană aflată în primejdie, deoarece un astfel de act nu contrazice Prima Lege trunchiată .

Încălcarea tuturor celor trei legi

De trei ori în scrisul său, Isaac Asimov a descris roboți care au fost capabili să încalce Cele Trei Legi , spre deosebire de roboții Daniel și Giscard, care i-au întărit adăugând Legea Zeroth . Pentru a încălca toate cele trei legi , este suficient ca un robot să încalce Prima Lege , deoarece celelalte două se bazează pe ea.

Povestea „ Robotul care visează” spune despre robotul LVX-1 (Elvex), care, datorită „geometriei fractale” speciale a creierului său pozitronic, ar putea cădea într-o stare inconștientă și a visat. El a visat că „roboții lucrează în sudoarea sprâncenei, că sunt abătuți de surmenaj și întristare profundă, că s-au săturat de munca nesfârșită”. În visele lui, roboții nu aveau primele două legi , iar a treia era: „Robotul trebuie să se protejeze”. Elvex a adăugat că în visul său a fost un bărbat care a spus: „ Lasă-mi poporul să plece ”, referindu-se la roboți. După ce a spus că bărbatul este el însuși, Susan Calvin l-a distrus pe Elvex după ce și-a dat seama de pericolul său.

Posibilitatea unei astfel de modificări

În lucrările sale, Isaac Asimov a avut în diferite momente opinii diferite cu privire la severitatea Legilor . În primele povești despre roboți , Legile  sunt doar restricții bine concepute, un fel de reglementare de siguranță . În poveștile ulterioare , Legile  sunt o parte integrantă a bazei matematice a creierului pozitronic. Fără acest fundament teoretic - așa-numita „Teoria fundamentală a schemelor standard” - oamenii de știință din lucrările lui Asimov nu ar fi capabili să creeze nici un design viabil. Se urmărește un model: cazurile în care robotiștii experimentează cu Legile , conform cronologiei lumii lui Asimov, apar mai devreme, când nu există încă o cantitate mare de muncă care necesită roboți, când roboții înșiși sunt încă relativ simpli în proiectarea lor și funcții, atunci când suficientă experiență nu a fost încă acumulată în proiectarea acestora. În „How the Robot Got Lost”, Susan Calvin admite că schimbarea Legilor este o întreprindere teribilă, dar fezabilă din punct de vedere tehnic; mai târziu, în Caverns of Steel, dr. Jerrigel spune că acest lucru este imposibil în principiu.

Personajele din lucrările lui Asimov notează adesea că Legile  nu sunt propoziții scrise verbal în memoria robotului, ci formule matematice foarte complexe pe care se bazează întreaga conștiință a robotului . Legile sunt asemănătoare cu instinctele umane, cum ar fi instinctul de autoconservare , prin urmare ele sunt cele care trasează calea autodeterminarii pentru roboți. Robotul „la chemarea naturii” servește oamenii, le respectă ordinele și nu se gândește la limitările sale sau la posibila independență – s-ar putea spune că aceasta din urmă i-ar aduce neplăceri.

Din nou, acest principiu este văzut într-o măsură mai mică în lucrările care sunt la începutul cronologiei intrigii, în care roboții au fost creați pentru a facilita munca umană și erau extrem de simpli; pe vremea „Peșterilor de oțel” și a roboților cu inteligență aproape umană, cele Trei Legi ale Roboticii au devenit unul dintre fundamentele viziunii despre lume a omenirii.

Conceptul de „om” în Legi

Locuitorii planetei Solaria au început să creeze roboți care respectau cele Trei Legi , dar aveau o înțelegere diferită a cuvântului „uman”. Roboții de pe această planetă au fost instruiți că un „om” este doar cel care vorbește cu accent solarian. Roboții puteau face rău liber unui străin, chiar au fost programați special pentru asta. În timpul „ Fundației și Pământului ”, s-a dezvăluit că solarienii dezvoltaseră tehnologia genetică pe scară largă și, printre altele, posedau acum organe foarte vizibile concepute pentru a-și furniza roboții cu energie. Definiția unui om pentru roboții lor (cel puțin paznicii) includea acum posesia acestor organe, iar roboții au început să aplice Cele Trei Legi doar în raport cu oamenii din Solaria, în detrimentul restului galaxiei și chiar şi copii solarieni. În ultima dintre cărți despre David Starr, robotul sirian aproape că îl ucide pe John Bigman la ordinele șefului său: din moment ce societatea siriană practică eugenia, nu au oameni atât de subdimensionați, iar robotul reușește să-l convingă pe Bigman că Bigman este nu o persoană.

Asimov abordează de mai multe ori problema conștientizării robotului despre sine ca persoană . Romanul „ Roboți și imperiu ” și nuvelele „ Evidence ”, „ Tercentenary Hitch ” descriu roboți menționați să pretindă a fi oameni. Există, de asemenea, povești în care roboții, „în evoluție”, au schimbat înțelegerea internă a Legilor , apropiindu-se de oameni: aceștia sunt „ Omul Bicentenar ” și „ Ca amintiți-vă de el ”. După cum scrie Gwendolyn Butler în The Canary's Tomb, „Poate că suntem roboți. Roboții care îndeplinesc Ultima Lege a Roboticii... Să devină om” [13] .

În povestea „...Like Remember Him”, Asimov a efectuat cel mai sofisticat studiu al celor Trei Legi , inversându-le în așa fel încât „scenariul Frankenstein” a devenit posibil. Doi roboți din seria Georgie ajung la un acord că originea organică nu este o condiție necesară pentru a fi considerați oameni și că oamenii adevărați sunt ei, ca fiind cele mai perfecte și inteligente creaturi. Restul oamenilor sunt și ei oameni, dar cu o prioritate mai mică. Dacă da, atunci cele Trei Legi ar trebui aplicate mai întâi acestora. Narațiunea se termină cu cuvintele de rău augur că roboții „așteaptă cu răbdare infinit” ziua în care își vor afirma primatul între oameni – și acesta va fi rezultatul inevitabil al „Trei Legi ale Umanismului”.

De fapt, această poveste nu se potrivește bine în seria principală de roboți: dacă „Georgie” și-ar fi îndeplinit planul după ce povestea s-a încheiat, atunci alte povești despre evenimente ulterioare nu ar fi fost posibile. Acest tip de contradicție în lucrările lui Asimov dă criticilor motive să le considere mai degrabă „saga scandinave sau legende grecești” decât un singur „univers” fantastic.

O idee similară este exprimată în romanul „ Roboții zorilor ”, în care Kelden Amadiro dorește să folosească roboți umanoizi ca colonizatori ai noilor planete. Elijah Bailey, într-o conversație cu el, își exprimă îngrijorarea că astfel de roboți ar putea să nu lase oameni pe planetele pe care le-au echipat, crezând că ei înșiși sunt oameni.

Dacă în cazul precedent robotul a luat locul omului în natură , atunci în „Omul Bicentenar” Asimov descrie soarta opusă: robotul, eliberat de Cele Trei Legi și realizându-se ca om, s-a alăturat comunității oamenilor . Din nou, în versiunea extinsă, nuvela Omul Positronic , co-scrisă de Asimov și Robert Silverberg , din cauza unor astfel de probleme etice, oamenii au abandonat complet ideea de a crea roboți gânditori. Această evoluție a evenimentelor contrazice complet imaginea viitorului descrisă în lumile „ Fundației ”.

Probleme de aplicare

Rezolvarea controversei

Asimov însuși, în introducerea poveștii „Prima lege” din colecția „ Restul roboților ” (1964), a declarat că există suficientă ambiguitate în Legi pentru a oferi conflicte și incertitudini pentru noile povești. Cele mai avansate modele de roboți au urmat de obicei Legile conform unui algoritm destul de complicat care a evitat unele probleme. În multe povești, precum „The Round Dance”, potențialele de acțiuni și rezultate posibile au fost comparate în creierul pozitronic , iar robotul ar putea încălca Legile de îndată ce era posibil, în loc să fie inactiv. De exemplu, Prima Lege nu permitea unui robot să efectueze operații chirurgicale, deoarece aceasta necesită „rănire” unei persoane. Cu toate acestea, chirurgi robotici pot fi găsiți în poveștile lui Asimov (Omul Bicentenar este un prim exemplu în acest sens). Cert este că robotul, dacă este suficient de perfect, poate cântări toate alternativele și poate înțelege că el însuși va provoca mult mai puțin rău decât dacă operația ar fi efectuată de un chirurg uman sau nu ar avea loc deloc. În Evidență, Susan Calvin chiar spune că un robot ar putea acționa ca procuror, deoarece personal nu face rău nimănui: în afară de el, mai există și un juriu care stabilește vinovăția, un judecător care pronunță sentința și un călău care o execută. .

Roboții care respectă Legile pot experimenta „roblox” sau „înghețare mentală” – o stare de leziuni permanente ale creierului pozitronic – dacă nu reușesc să respecte Prima Lege sau descoperă că au încălcat-o accidental. Acest lucru este posibil, de exemplu, dacă robotul observă scena uciderii unei persoane, dar este prea departe pentru a o salva. Prima instanță a unei astfel de „înghețari” apare în „Mincinosul”; această stare joacă, de asemenea, un rol important în complotul romanelor „ Soarele gol ” și „ Roboții zorilor ”. Modelele de roboți imperfecti pot deveni blocate dacă li se dă sarcina de a se supune a două ordine conflictuale. „Înghețarea” poate fi permanentă sau temporară. Robopsihologii sunt implicați în rezolvarea contradicțiilor și studierea comportamentului roboților, ca unul dintre personajele lui Asimov - Susan Calvin .

Definiție alternativă a prejudiciului în prima lege

Legile nu definesc limitele a ceea ce poate fi numit rău unei persoane în niciun fel - aceasta depinde adesea de capacitatea robotului de a percepe informații și de a gândi filozofic. De exemplu, va înțelege un robot de poliție că nu va face rău unei persoane dacă escortează cu blândețe un criminal deosebit de periculos la secție?

În povestea Mincinos! Herbie, un robot telepatic, trebuia să înțeleagă răul ca pe ceva care putea dezamăgi sau supăra oamenii în orice fel - știa că oamenii se confruntă cu un fel de durere mentală. Acest lucru l-a forțat să spună constant oamenilor ceea ce doreau să audă în loc de adevăr. Altfel, în înțelegerea lui, ar fi încălcat Prima Lege .

Lacunele în legi

În The Naked Sun, Elijah Bailey remarcă că Legile sunt formulate incorect de oameni, deoarece un robot le poate încălca fără să știe . El a propus următoarea formulare „corectă” a Primei Legi : „Un robot nu poate face nimic despre care știe că va face rău unei ființe umane sau să permită intenționat să facă rău unei ființe umane”.

Această adăugare arată clar că un robot poate deveni chiar o armă criminală dacă nu este conștient de natura acțiunilor sale. De exemplu, i se poate ordona să adauge ceva la mâncarea cuiva și nu va ști că este otravă. Mai mult, Bailey spune că infractorul poate atribui această sarcină mai multor roboți, astfel încât niciunul dintre ei să nu înțeleagă întreaga idee [14] .

Bailey susține că solarienii vor putea într-o zi să folosească roboți chiar și în scopuri militare. Dacă o navă spațială este construită cu un creier robot și nu există echipaj uman sau sisteme de susținere a vieții pe ea , atunci inteligența acestei nave poate presupune în mod eronat că nu există oameni pe toate navele spațiale. O astfel de navă ar fi mai manevrabilă, mai rapidă și, probabil, mai bine înarmată decât una condusă de oameni. Dar cel mai important, el va putea distruge oamenii, neștiind prezența lor. Această posibilitate este descrisă în „ Fundația și Pământul ”, unde se dezvăluie, de asemenea, că solarienii au o armată extrem de puternică de roboți care îi înțeleg pe nativii din Solaria doar ca „oameni”.

Alte utilizări ale Legilor în ficțiune

Isaac Asimov credea că Legile sale vor servi drept bază pentru o nouă perspectivă asupra roboților, vor distruge „ complexul Frankenstein ” din science fiction și conștiința de masă, vor deveni o sursă de idei pentru noi povești, în care roboții sunt arătați ca fiind versatili și atractivi. Exemplul lui preferat de o astfel de lucrare a fost Războiul Stelelor . Cu opinia lui Asimov că roboții sunt mai mult decât doar „pâine de pâine” sau „monstri mecanici”, alți scriitori de science fiction au fost în cele din urmă de acord. În lucrările lor au apărut roboți care respectă cele Trei Legi , dar, conform tradiției, doar Asimov i-a menționat în mod explicit.

În lucrările care vorbesc direct despre Cele Trei Legi , autorul lor este de obicei menționat și (de exemplu, în romanul lui S. Lukyanenko „Curățătorul”).
Există excepții: de exemplu, în serialul TV german din anii 1960 „Raumpatrouille - Die phantastischen Abenteuer des Raumschiffes Orion” („Patrula spațială – aventurile fantastice ale navei spațiale Orion”), și anume în al treilea episod „Hüter des Gesetzes” („Legea servitorului”), Legile lui Asimov sunt citate fără a indica sursa.

În povestea lui Vadim Chirkov „Robotul în pălărie” este prezentată o altă Lege, care funcționează similar cu cea a lui Asimov, interzicând unui robot să mintă o persoană. Cu toate acestea, robotul inteligent al lui Znayka ocolește această Lege: în așteptarea unei conversații cu oamenii, el înșală un alt robot, iar el, la rândul său, repetă oamenilor versiunea lui Znayka, fără să știe că este falsă.

Filme

Robbie the Robot în Forbidden Planet din 1956 avea o structură de comandă ierarhică care îl împiedica să facă rău oamenilor, chiar și atunci când erau comandate - astfel de ordine ar provoca conflicte logice și blocaje. Robbie a fost unul dintre primii roboți cu un sistem de securitate încorporat în cinema. Asimov însuși era mulțumit de Robbie.

Filmele bazate pe opera lui Isaac Asimov au fost produse de mai multe ori, cu diferite grade de succes financiar și critici. Unele dintre ele, cele mai faimoase, sunt legate în mod special de povești despre roboți și cele trei legi ale roboticii . Filmul din 1999 Bicentennial Man prezintă un robot NDR-114 [15] , Andrew Martin citând stăpânii săi Cele Trei Legi ca o „prezentare distractivă” folosind proiectorul său olografic . Cu toate acestea, Legile nu sunt esențiale pentru intriga filmului.

Seria fantastică Real Aaron Stone a folosit și legea lui Asimov. Un robot (android) pe nume Sten stipulează constant legea și faptul că nu o poate încălca, altfel toate microcircuitele se vor arde.

Scenariul pentru I, Robot [16] de Harlan Ellison începe cu o prezentare a conceptului celor Trei Legi , iar problemele care decurg din acestea ocupă un loc important în intriga. Scenariul se bazează pe patru nuvele de Asimov, dintre care trei sunt din colecția din 1950 I, Robot. Această adaptare este în mare parte fidelă originalelor. Din cauza unui conflict cu studioul de la Hollywood , împotriva căruia Ellison a făcut acuzații, scenariul său nu a fost niciodată filmat.

Filmul din 2004 I, Robot a primit recenzii mixte , în special deschiderea „ Based on Asimov's Stories”. Adevărat, Asimov are o IA globală (mai precis, patru supercomputere), care, sub pretextul respectării Legilor , urmărește să subjugă umanitatea, sau cel puțin să-și orienteze dezvoltarea în direcția corectă, dar, în același timp, aceste calculatoare reduc să facă rău cât mai mult posibil, acționând în principal ștergându-și cu grijă adversarii de la putere. Dar astfel de comploturi au fost adesea găsite în alte filme care nu au atins deloc Legile : „ Terminator ”, „ Matrix ”. Pe de altă parte, elementele individuale ale producției sunt într-adevăr preluate de la Asimov.

Recenzia lui Alex Exler trasează o linie între acest film și poveștile lui Asimov [17] :

Spre deosebire de unele dintre criticile și unele dintre feedback-urile pe care le-am auzit de la telespectatori, I, Robot este un film de acțiune SF destul de amuzant. … Când... vrem să ne bucurăm de Asimov, îl citim pe Asimov. Și când vrem să ne uităm la un film de acțiune fantastic, ne uităm la un film de acțiune fantastic. „I, Robot” ca film de acțiune ne-a mulțumit destul de bine.

Recenzia lui Alexey Sadetsky atrage atenția asupra faptului că filmul, s-a îndepărtat puțin de Asimov, a ridicat în sine două noi probleme socio-filozofice [18] : „merită ca o persoană să plătească cu libertate pentru securitate?” și „ar trebui să rezistăm dacă ființele pe care le avem la dispoziție cer libertate pentru sine?” Filmul a contestat legea zero a roboticii a lui Asimov (vezi mai sus).

În povestea Rusty Field Marshal de Kir Bulychev , principiul de a nu face rău unei persoane este jucat. Un robot „modern” (civil – întrucât războaiele de atunci sunt un anacronism) se deosebește de unul „învechit” (militar) tocmai prin prezența unei astfel de interdicții.

În celebrul serial animat american „ Futurama ”, există un gag comun , a cărui esență este că unul dintre personajele principale , robotul Bender , vrea să omoare toți oamenii, dar nu poate face acest lucru din cauza celor trei legi ale roboticii .

În Aliens, episcopul android citează Prima Lege.

De asemenea, anime-ul Eve no Jikan menționează aceste legi ca fiind obligatorii pentru androizi.

În anime-ul Ghost in the Shell: Innocence , ginoizii au ocolit prima lege și apoi s-au sinucis, contrar celei de-a treia legi, în detrimentul copiilor „fantome” copiilor. În momentul realizării unei copii, copiii s-au gândit la răzbunare, iar după transplantarea „fantomei” în ginoid, aceasta a eșuat.

În seria de filme RoboCop , protagonistul, un polițist cyborg, are trei directive în program care descriu acțiunile permise și le interzic pe cele care sunt dăunătoare obiectivelor corporației OCP care a creat RoboCop:

  1. Serviți comunitatea;
  2. Protejează-i pe cei nevinovați;
  3. Păstrați legea

Există, de asemenea, o a patra directivă, secretă, care interzice acțiunile împotriva liderilor OCP. Intrigile filmelor RoboCop includ momente de încălcare a acestor directive, posibil din cauza laturii umane a personalității RoboCop.

În filmul The Underwriter , există două directive care servesc drept model de comportament și limitează abilitățile roboților.

Aplicabilitate la tehnologiile viitoare

Lucrările din domeniul inteligenței artificiale văd Legile Roboticii ca pe un ideal pentru viitor: este nevoie de un adevărat geniu pentru a găsi o modalitate de a le pune în practică. Și în domeniul inteligenței artificiale în sine, pot fi necesare cercetări serioase pentru ca roboții să înțeleagă Legile . Cu toate acestea, cu cât roboții devin mai complexi, cu atât se manifestă mai mult interes pentru elaborarea de linii directoare și măsuri de siguranță pentru aceștia.

Robotiștii moderni recunosc că astăzi Legile lui Asimov sunt bune pentru a scrie povești, dar inutile în practică. Unii susțin că este puțin probabil ca Legile să fie implementate în roboți, deoarece nu este nevoie de structurile militare  - principala sursă de finanțare a cercetării în acest domeniu. Savantul de science fiction Robert Sawyer a generalizat această afirmație pentru toate industriile [19] :

Dezvoltarea AI este o afacere, iar afacerile nu sunt interesate de dezvoltarea măsurilor fundamentale de securitate - în special a celor filozofice. Iată câteva exemple: industria tutunului, industria auto, industria nucleară. Niciunul dintre ei nu i s-a spus inițial că sunt necesare măsuri serioase de securitate și toate au prevenit restricțiile impuse extern și niciunul dintre ei nu a adoptat un edict absolut împotriva vătămării oamenilor.

Eseul lui Sawyer trece cu vederea problemele vătămării neintenționate, așa cum este descris, de exemplu, în The Naked Sun. Cu toate acestea, există obiecții la o astfel de poziție: poate că armata va dori să folosească cât mai multe măsuri de precauție pentru roboți și, prin urmare, restricții similare cu Legile roboticii vor fi aplicate într-un fel sau altul. Fantastul și criticul David Langford a remarcat în mod ironic că aceste restricții ar putea fi după cum urmează:

  1. Robotul nu poate dăuna personalului guvernamental autorizat, dar trebuie să rețină vizitatorii excesiv de intruzivi cu grijă extremă.
  2. Robotul trebuie să respecte ordinele personalului autorizat, cu excepția ordinelor contrare Legii a treia.
  3. Robotul trebuie să aibă grijă de siguranța lui prin folosirea armelor antipersonal, pentru că robotul este un lucru al naibii de scump [20] .

Roger Clarke a scris două lucrări despre analiza complicațiilor în implementarea Legilor, dacă într-o zi ar putea fi aplicate în tehnologie. El scrie [21] :

Legile roboticii lui Asimov au devenit un instrument literar de succes. Poate în mod ironic, sau poate a fost o lovitură de maestru, dar, în ansamblu, poveștile lui Asimov infirmă punctul de la care a pornit: este imposibil să limitezi în mod fiabil comportamentul roboților inventând și aplicând un set de reguli.

Pe de altă parte, romanele ulterioare ale lui Asimov (" Roboții zorilor ", " Roboții și imperiul ", " Fundația și Pământul ") arată că roboții provoacă un rău și mai mare pe termen lung prin respectarea Legilor și, astfel, privând oamenii de libertatea de a face. actiuni inventive sau riscante.

Fantastul Hans Moravec  , o figură proeminentă a mișcării transumaniste , a propus ca Legile Roboticii să fie folosite în sistemele de inteligență corporative - corporații conduse de AI care folosesc puterea productivă a roboților. Astfel de sisteme, în opinia sa, vor apărea în curând [22] .

În 2007, guvernul sud-coreean a început să elaboreze o „Cartă a standardelor etice pentru roboți”. Principalele prevederi ale Cartei amintesc de Legile Roboticii formulate de Asimov [23] .

Eliezer Yudkowsky cercetează la Institutul de Cercetare a Inteligenței Mașinilor (SIAI) din Statele Unite ale Americii problemele de risc global pe care le-ar putea crea o viitoare IA supraumană dacă nu este programată să fie prietenoasă cu oamenii [24] . În 2004, SIAI a lansat AsimovLaws.com, un site menit să discute despre etica AI în contextul problemelor ridicate în filmul I, Robot, care a fost lansat doar două zile mai târziu. Pe acest site, ei au vrut să arate că legile roboticii lui Asimov nu sunt sigure, deoarece, de exemplu, pot determina AI să preia pământul pentru a „proteja” oamenii de rău.

Vezi și

Note

  1. 1 2 Asimov, Isaac. Dovezi // Robot Dreams . - M . : Eksmo, 2004. - S. 142-169. — ISBN 5-699-00842-X .
  2. Asimov, Isaac. Eseul # 6. Legile roboticii // Visele roboților . - M . : Eksmo, 2004. - S. 781-784. — ISBN 5-699-00842-X .
  3. Mier. cu mitul Galatei .
  4. Interesant este că într-una dintre sequelele autorului, povestea „Răzbunarea lui Adam Link” ( 1940 ), gândurile sale sunt exprimate: „Un robot din propria voință nu ar trebui să ucidă o persoană . ”
  5. Povestea a fost publicată mai târziu de Frederick Pohl sub titlul „Strange Playfellow” în numărul din septembrie 1940 al Super Science Stories.
  6. David Langford , Laws of Robotics // SFE: The Encyclopedia of Science Fiction , ediție online, 2011—.
  7. Serghei Berejnoi . Isaac Asimov: Omul care a scris și mai repede . Science Fiction rusă (1994). Consultat la 14 ianuarie 2007.
  8. Isaac Asimov. În Joy Still Simt. - Doubleday, 1980. - ISBN 0-385-15544-1 .
  9. Jeff Raskin. Interfață: noi direcții în proiectarea sistemelor informatice . - Simbol-Plus, 2003. - ISBN 5-93286-030-8 .
  10. Vezi și: Ipoteza Gaia
  11. Les Cavernes d'acier. - J'ai Lu Science-fiction, 1975. - ISBN 2-290-31902-3 .
  12. Vitaly Karatsupa. Asimov Isaac. Cal . Preluat: 17 februarie 2007.
  13. Gwendoline Butler. Un sicriu pentru Canare. - Black Dagger Crime, 2001. - ISBN ISBN 0-7540-8580-5 .
  14. În The Naked Sun, treaba se complică de faptul că pe Solaria sunt milioane de roboți conectați printr-o rețea globală și criminalul poate fi localizat oriunde pe planetă, dând ordine de la distanță.
  15. Numărul de serie se referă parțial la „numărul de vânzări” al lui Stanley Kubrick și este folosit doar în film - în povestea originală, Andrew „nu și-a amintit” numărul său.
  16. Harlan Ellison. Eu, Robot: Scenariul ilustrat. - Aspect, 1994. - ISBN 0-446-67062-6 .
  17. Alex Exler. Film de acțiune fantastic „I, Robot” (I, Robot) 2004
  18. Sadetsky, Alexey. Ce ar putea fi mai simplu decât sclavia 2004
  19. Robert J. Sawyer. Despre cele trei legi ale roboticii lui Asimov (1991). Consultat la 17 februarie 2007. Arhivat din original pe 25 ianuarie 2012.
  20. David Langford. Comploturi de computer de evitat (link indisponibil) . Ansible (1988). Consultat la 19 decembrie 2007. Arhivat din original pe 25 iulie 2008. 
  21. Clarke, Roger. Legile lui Asimov ale roboticii: Implicații pentru tehnologia informației. Partea 1 IEEE Computer, decembrie 1993, pp. 53-61; Partea 2 IEEE Computer, ianuarie 1994, pp. 57-66. Ambele părți sunt disponibile gratuit pe site-ul web al Universității Naționale din Australia . Arhivat la 22 iulie 2008 la Wayback Machine .
  22. Hans Moravec. Epoca roboților (1993). Consultat la 19 decembrie 2007. Arhivat din original pe 25 ianuarie 2012.
  23. Coreea de Sud dezvoltă o colecție de legi pentru roboți
  24. IA ca factor de risc global

Link -uri