Iarna inteligenței artificiale

Iarna inteligenței artificiale  este o perioadă din istoria cercetării în domeniul inteligenței artificiale asociată cu o reducere a finanțării și o scădere generală a interesului pentru probleme [1] . Termenul a fost introdus prin analogie cu termenul „ iarnă nucleară[2] . Domeniul inteligenței artificiale a trecut prin mai multe cicluri, însoțite de hype crescut, urmate de „ierni” - dezamăgire, critică și ulterioara reducere a finanțării, iar apoi interes reînnoit câțiva ani sau decenii mai târziu [3] .

Termenul a fost menționat pentru prima dată în 1984 la întâlnirea anuală a AAAI (Asociația Americană pentru Inteligență Artificială): la una dintre discuții, Roger Shank și Marvin Minsky  - doi cercetători de frunte în domeniul inteligenței artificiale - au avertizat afacerea. comunitate că entuziasmul pentru regie era scăpat de sub control și că dezamăgirea urma să fie ilustrată de „prima iarnă” a regiei experimentată în anii 1970. După această discuție a urmat o reacție în lanț, însoțită de pesimism în rândul cercetătorilor, care s-a răspândit și în mass-media, și a dus în final la scăderea finanțării și oprirea lucrărilor majore [2] ; trei ani mai târziu, industria inteligenței artificiale de miliarde de dolari a fost practic doborâtă [2] .

Ca și în cazul oricărui hype care însoțește tehnologii promițătoare și este caracterizat de recesiuni ulterioare ( mania feroviară , balonul dot-com ), „iernile AI” au însemnat în primul rând un colaps în percepția celor care iau decizii cu privire la finanțare - oficiali guvernamentali, investitori, capitaliști de risc. , şefi de organizaţii . În același timp, în ciuda creșterii și scăderii reputației inteligenței artificiale, cercetările în acest domeniu au fost efectuate în mod continuu, iar după recesiuni, interesul investitorilor a reluat ca următoarele rezultate. Astfel, în 2005, Ray Kurzweil a remarcat că „iarna AI” nu a întrerupt activitatea în acest domeniu, iar până la mijlocul anilor 2000, „multe mii de aplicații de inteligență artificială sunt profund încorporate în infrastructura fiecărei industrii” [4] .

Periodizare

Două „ierni” lungi sunt atribuite perioadelor 1974-1980 și 1987-1993 [5] [6] . În plus, au existat câteva episoade mai puțin semnificative care au contribuit la scăderea interesului pentru regie, cum ar fi eșecul proiectelor de traducere automată în 1966 și eșecul conceptului de conexionism în 1970. Alte perioade de scădere a dobânzii:

Episoadele timpurii

Traducere automată și raport ALPAC din 1966

În timpul Războiului Rece , guvernul SUA a fost interesat în special de traducerea automată, instantanee, a documentelor rusești și a rapoartelor științifice. Din 1954, guvernul SUA a depus mult efort în dezvoltarea traducerii automate. La început, cercetătorii au fost optimiști: noua lucrare a lui Noam Chomsky privind gramatica simplifica procesul de traducere și existau „multe predicții privind o descoperire viitoare” [7] .

Cu toate acestea, cercetătorii au subestimat dificultatea de a rezolva polisemia lexicală . Pentru a traduce o propoziție fără erori, aparatul trebuia să aibă o idee despre ce era vorba în propoziție. Potrivit mitului [8] , expresia „spiritul este dispus, dar carnea este slabă” (spirit puternic, dar carnea este slabă) atunci când este tradusă în rusă și apoi înapoi în engleză, s-a transformat în „vodca este bună, dar carnea este putredă” (vodcă bună, dar carnea este putredă) [9] , și „din vedere, din minte” (din vedere, din minte) - în „prostuț orb” (idiot orb). Cercetătorii de mai târziu ar numi bunului simț

În 1964, Consiliul Național de Cercetare al SUA (NRC) a tras un semnal de alarmă cu privire la lipsa de progres și a format Comitetul consultativ pentru procesarea automată a limbajului pentru a analiza problema. În raportul lor din 1966, comitetul a concluzionat că traducerea automată s-a dovedit a fi mai scumpă, mai puțin precisă și mai lentă decât traducerea umană. După ce a cheltuit aproximativ 20 de milioane de dolari, NRC a redus toată dezvoltarea. Carierele au fost distruse și cercetările au fost oprite [10] [7] .

În secolul 21, traducerea automată rămâne o problemă deschisă, deși a fost rezolvată cu oarecare succes ( Google Translate , Yahoo Babel Fish ).

Respingerea conectivismului în 1969

Unele lucrări de IA timpurie au folosit rețele sau circuite de blocuri conectate pentru a simula un comportament inteligent. Exemple ale acestei abordări, numite conexionism , sunt prima descriere a unei rețele neuronale artificiale Walter Pitts și Warren McCulloch și munca lui Marvin Minsky asupra SNARC La sfârșitul anilor 1950, majoritatea acestor abordări au fost abandonate când cercetătorii au început să exploreze raționamentul simbolic (raționamentul simbolic ca bază a inteligenței după succesul unor programe precum Logic Theorist și General Problem Solver 11]

Totuși, lucrările într-o ramură a conexionismului au continuat - studiul perceptronului , propus de Frank Rosenblatt , care a reușit să susțină cercetarea în acest domeniu datorită abilităților sale de „vânzător” și a forței personalității sale [12] . El a prezis optimist că perceptronul „cu timpul va fi capabil să învețe, să ia decizii și să traducă limbi” [13] . Cercetările generale privind perceptronii s-au oprit brusc în 1969 odată cu publicarea Perceptrons de Marvin Minsky și Seymour Papert , care a subliniat limitele perceptronilor.

Conectivismul a fost uitat în următoarele câteva decenii. Deși au continuat unele lucrări importante în această direcție, de exemplu, s-a propus retropropagarea , a fost dificil să se găsească finanțare suficientă pentru proiectele conecționiste în anii 1970 și începutul anilor 1980 [14] . „Iarna” cercetării conecționiste s-a încheiat la mijlocul anilor 1980, când lucrările lui John Hopfield , David Rumelhart și alții au reînviat interesul pe scară largă pentru rețelele neuronale [15] . Rosenblatt nu a așteptat acest lucru, a murit într-un accident la scurt timp după publicarea cărții „Perceptrons” [13] .

Eșecuri în 1974

Raport Lighthill

În 1973, Parlamentul britanic l-a însărcinat pe profesorul Sir James Lighthill să evalueze starea cercetării în domeniul inteligenței artificiale în Marea Britanie. Raportul său, cunoscut sub numele de Raportul Lighthill , a criticat eșecul general al inteligenței artificiale în a-și atinge „obiectivele mari”. A ajuns la concluzia că tot ceea ce poate face AI poate fi făcut și de alte științe. El a evidențiat în special problemele de „ explozie combinatorie ” și „ intractabilitate ”, care au arătat că majoritatea algoritmilor de inteligență artificială cei mai de succes sunt potriviți doar pentru rezolvarea problemelor de „jucărie” și nu funcționează la probleme practice reale [16] .

Raportul a fost contestat într-o dezbatere care a fost difuzată în programul „Controversy” al BBC în 1973. În dezbaterea „Robotul universal este un miraj”, Lighthill, reprezentând Instituția Regală, a argumentat împotriva unei echipe formată din Donald Johnși Richard Gregory17McCarthy a scris mai târziu că „problema exploziei combinatorii a fost recunoscută în AI încă de la început” [18] .

Raportul Lighthill a condus la încetarea majorității cercetărilor AI în Marea Britanie [16] . Cercetările au continuat doar la câteva universități de nivel al doilea ( Edinburgh , Essex și Sussex ). James Hendler scrie: „Acest lucru a creat un efect de undă care a condus la o reducere a finanțării pentru dezvoltarea IA în toată Europa” [19] . Cercetările la scară largă nu s-au reluat până în 1983, când British Project ca răspuns la proiectul japonez de computere de generația a cincea , a început să finanțeze 350 de milioane de lire sterline în inteligență artificială din bugetul militar. Alvey avea o serie de cerințe care priveau doar Marea Britanie, care nu se potriveau partenerilor internaționali, în special americani, și au devenit motivul încetării finanțării pentru a doua etapă.

Reducerea finanțării DARPA la începutul anilor 1970

În anii 1960, Agenția de Proiecte de Cercetare Avansată a Apărării (cunoscută pe atunci sub numele de „ARPA”, acum „DARPA”) a oferit milioane de dolari pentru cercetarea inteligenței artificiale, cu puține condiții sau deloc. Directorul DARPA din acei ani, Joseph Licklider , credea în „finanțarea oamenilor, nu a proiectelor” [13] și le-a permis liderilor din industria AI (cum ar fi Marvin Minsky , John McCarthy, Herbert A. Simon și Allen Newell ) să-l cheltuiască pentru aproape orice scop.

Acest lucru s-a schimbat odată cu aprobarea Amendamentului Mansfield din 1969, care a cerut ca DARPA să finanțeze „cercetarea direcționată, nu cercetarea generală nedirecționată. De acum înainte, propunerile cercetătorilor în inteligența artificială au fost luate în considerare după standarde foarte stricte. Situația a devenit și mai complicată după publicarea raportului Lighthill și a studiului propriu DARPA (American Study Group), care a arătat că majoritatea cercetărilor în domeniul inteligenței artificiale este puțin probabil să aducă vreun beneficiu în viitorul apropiat. Drept urmare, banii DARPA au fost direcționați către proiecte cu obiective mai clare, cum ar fi tancuri autonome și sisteme de management al luptei. Până în 1974, era dificil să găsești finanțare pentru proiecte de inteligență artificială [20] .

Cercetătorul AI Hans Moravec a pus criza pe seama previziunilor nerealiste ale colegilor săi: „Mulți cercetători s-au trezit într-o rețea de exagerare tot mai mare. Primele promisiuni pe care le-a făcut DARPA au fost prea optimiste. Desigur, ceea ce au dezvoltat ca rezultat a fost semnificativ diferit de promisiuni. Dar ei credeau că data viitoare nu vor putea promite mai puțin decât prima, așa că au promis și mai mult” [13] . Drept urmare, personalul DARPA și-a pierdut răbdarea cu cercetarea AI, susține Moravec. Moravec i-a spus lui Daniel Crevier că „DARPA a spus literalmente că unii dintre acești oameni ar trebui să primească o lecție reducându-și contractele de două milioane de dolari pe an la aproape [13] .

Deși proiectul tancului autonom a eșuat, sistemul de management al luptei (Dynamic Analysis and Replanning Tool, DART) a avut un succes deosebit și a economisit miliarde de dolari în timpul primului război din Golf , compensând astfel toate investițiile DARPA în AI [21] și justificând astfel o politică pragmatică . DARPA [22] .

Eșecul SUR

DARPA a fost profund dezamăgit de cercetătorii de la Universitatea Carnegie Mellon care lucrau la un program de recunoaștere a vorbirii. DARPA se aștepta să primească și credea că li s-a promis că va furniza un sistem de control vocal pentru piloți. Echipa SUR a dezvoltat un sistem care ar putea recunoaște limba engleză vorbită, dar numai dacă cuvintele au fost rostite într-o anumită ordine. DARPA a simțit că au fost păcăliți, iar în 1974 au anulat grantul de 3 milioane de dolari pe an [23] .

Mulți ani mai târziu, sistemele comerciale de recunoaștere a vorbirii de succes ar folosi tehnologii dezvoltate de echipa Carnegie Mellon (cum ar fi Hidden Markov Models ), iar în 2001 piața sistemelor de recunoaștere a vorbirii ar ajunge la 4 miliarde de dolari [24] .

Eșecuri de la sfârșitul anilor 1980 și începutul anilor 1990

Prăbușirea pieței de mașini Lisp în 1987

În anii 1980, corporațiile din întreaga lume au adoptat sisteme expert (o formă de inteligență artificială). Primul sistem expert comercial a fost XCON , dezvoltat la Universitatea Carnegie Mellon pentru Digital Equipment Corporation . Un succes uriaș, a ajutat Digital Equipment să economisească aproximativ 40 de milioane de dolari în șase ani de funcționare. Corporațiile din întreaga lume au început să dezvolte și să implementeze sisteme expert, iar până în 1985 cheltuiau peste un miliard de dolari pe inteligență artificială, cea mai mare parte din care mergeau către departamentele interne de inteligență artificială. inclusiv dezvoltatori de software precum Teknowledge și ) producători de hardware precum Symbolics Lisp Ei au creat calculatoare AI dedicate, mașini Lisp , optimizate pentru a procesa limbajul de programare Lisp , la acea vreme limbajul preferat în dezvoltarea AI [13] .

În 1987, la trei ani după predicția lui Minsky și Schank, piața mașinilor Lisp s-a prăbușit. Stațiile de lucru de la companii precum Sun Microsystems au oferit o alternativă puternică la mașinile Lisp, iar companii precum Lucid Inc. , a oferit un cadru LISP pentru această nouă clasă de stații de lucru. Performanța stațiilor de lucru de uz general a devenit o provocare din ce în ce mai dificilă pentru mașinile Lisp. Companii precum Lucid Inc. și Franz Inc , au oferit versiuni din ce în ce mai puternice ale LISP. Rezultatele benchmark-urilor au arătat că stațiile de lucru depășesc mașinile Lisp [25] . Mai târziu, computerele desktop Apple și IBM ar oferi, de asemenea, o arhitectură mai simplă și mai populară pentru rularea aplicațiilor LISP. Până în 1987 erau mai puternice decât mașinile Lisp mai scumpe. Motoarele bazate pe reguli, cum ar fi CLIPS [26], erau disponibile pe computerele desktop . Aceste alternative nu au lăsat consumatorilor niciun motiv să cumpere aparate scumpe Lisp. Întreaga industrie a mașinilor Lisp de jumătate de miliard de dolari a dispărut într-un an [13] .

Din punct de vedere comercial, multe companii Lisp au dat faliment, precum Symbolics, Lisp Machines Inc., Lucid Inc. Alte companii, precum Texas Instruments și Xerox , au părăsit industria. Cu toate acestea, un număr de companii client au continuat să utilizeze și să întrețină sisteme scrise în Lisp și dezvoltate pe mașinile Lisp.

Popularitatea în scădere a sistemelor expert

La începutul anilor 1990, sistemele expert de succes, cum ar fi XCON, s-au dovedit prea costisitoare de întreținut. Au fost greu de actualizat, nu au putut învăța, au fost „frapanți” (faceți greșeli prostești când li s-au dat intrări neobișnuite). De asemenea, au căzut pradă problemelor (cum ar fi problema calificare găsite în studiul logicii nemonotone Sistemele experte s-au dovedit eficiente doar în câteva contexte specifice [1] . O altă problemă a vizat complexitatea computațională a problemei menținerii adevărului în raport cu cunoștințele generale. KEE a folosit o abordare bazată pe ipoteze (vezi NASA, TEXSYS [27] ) care sprijină mai multe scenarii mondiale [27] care a fost dificil de înțeles și aplicat.

Numărul mic de companii care au rămas în domeniul sistemelor experte au fost forțate în cele din urmă să reducă personalul și să caute noi piețe și paradigme software, cum ar fi raționamentul bazat pe cazuri sau accesul universal la baze de date . Dezvoltarea Common Lisp a salvat multe sisteme, cum ar fi ICAD , care și-au găsit utilizare în ingineria bazată pe cunoștințe. Alte sisteme, cum ar fi KEE Intellicorp, au trecut de la Lisp la C++ pe PC și au ajutat la stabilirea tehnologiilor orientate pe obiecte (inclusiv contribuții majore la dezvoltarea UML ).

Fiasco-ul computerelor de generația a cincea

japonez Comerțului Internațional și Industriei a alocat 850 de milioane de dolari pentru proiectul de calculatoare de generația a cincea Sarcina lui a fost să creeze programe și mașini capabile să poarte o conversație, să traducă limbi, să înțeleagă imagini și să gândească ca oamenii. Până în 1991, lista impresionantă de obiective întocmită în 1981 nu fusese îndeplinită, iar unele dintre ele nu au fost îndeplinite nici în 2001, nici în 2011. Ca și în cazul altor proiecte AI, așteptările erau mult mai mari decât capacitatea de a le realiza [13] .

Reducerea inițiativei de calcul strategic

În 1983, DARPA, ca răspuns la proiectul de generația a cincea, a reînnoit finanțarea pentru cercetarea inteligenței artificiale prin lansarea Strategic Computing Initiative. Proiectul trebuia să înceapă cu obiective practice, realizabile, dintre care unul era inteligența artificială pe termen lung. Programul a fost administrat de Biroul pentru Tehnologia de Procesare a Informației și sa concentrat, de asemenea, pe supercalculatoare și microelectronice . Până în 1985, 100 de milioane de dolari au fost cheltuiți pentru program și 92 de proiecte au fost lansate în 60 de instituții, jumătate dintre ele în industrie, cealaltă jumătate în universități și laboratoare guvernamentale. Cercetarea în inteligența artificială a fost finanțată cu generozitate de SCI [11] .

În 1987, Jack Schwartz a preluat IPTO și a respins sistemele expert drept „programare pricepută” și a redus finanțarea AI „profund și aspru”, privând SCI de conținut. Schwartz nu a considerat AI un „nou val” și a vrut să concentreze finanțarea DARPA doar pe cele mai promițătoare tehnologii, potrivit acestuia, DARPA ar trebui să „surfeze”, nu „să înoate ca un câine”. În plus, personalul programului a raportat probleme de comunicare, organizare și integrare. Doar câteva proiecte au supraviețuit reducerilor de finanțare: pilotul asistent, vehiculul terestre fără pilot (niciodată construit) și sistemul de management al luptei DART (care, după cum sa menționat mai sus, a devenit de succes) [11] .

Evenimente după iarna AI

Reputație

O analiză a rapoartelor de la mijlocul anilor 2000 sugerează că reputația AI nu era încă lipsită de defecte:

Mulți cercetători de la mijlocul anilor 2000 au evitat în mod deliberat termenul AI și au folosit alte nume pentru activitățile lor, cum ar fi informatica , învățarea automată , analitică, sisteme bazate pe cunoștințe , sistem de management al regulilor de afaceri , sisteme cognitive , sisteme inteligente , sisteme inteligente . agenți , inteligență computațională , pentru a sublinia aplicarea unor instrumente specifice sau pentru a arăta un accent pe o anumită sarcină de nivel inferior. În timp ce oamenii de știință ar putea considera domeniul lor ca fiind fundamental diferit de AI, noile titluri au ajutat la asigurarea finanțării, deoarece au eliminat stigmatizarea promisiunilor încălcate asociate cu „inteligența artificială” [30] .

Distribuție

Ray Kurzweil scria în 2005: „Mulți experți încă cred că iarna AI a fost sfârșitul industriei și AI nu s-a concretizat de atunci, dar deja astăzi există mii de aplicații AI în toate industriile și sunt adânc țesute în infrastructura lor” [31 ] . La sfârșitul anilor 1990 și începutul secolului 21, tehnologiile AI au fost utilizate pe scară largă ca parte a diferitelor sisteme [32] [31] , deși succesul lor nu a fost aproape niciodată atribuit AI. În 2006, Nick Bostrom a explicat că „multe tehnologii AI de ultimă oră au intrat în uz general, adesea fără nicio mențiune despre AI, deoarece odată ce ceva devine util sau suficient de răspândit, nu mai este numit AI”. Rodney Brooks a spus cam în același timp, „există acest mit stupid că AI nu s-a ridicat la înălțimea așteptărilor, dar AI este peste tot în jurul tău în fiecare secundă” [33] .

Tehnologiile AI au obținut succes comercial în domenii precum traducerea automată, extragerea datelor , robotica industrială , logistica [21] , recunoașterea vorbirii, software-ul bancar, diagnosticarea medicală și motorul de căutare Google [34] .

Controlerele cu logica fuzzy au fost dezvoltate pentru transmisiile automate din automobile. În 2006, Audi TT, VW Touareg și VW Caravell sunt echipate cu o cutie de viteze DSP care utilizează o logică neclară. O serie de modele Skoda ( Skoda Fabia ) folosesc controlere cu logica fuzzy. Logica fuzzy este utilizată pe scară largă în senzorii camerei pentru focalizare.

Căutarea euristică și analiza datelor au evoluat din modelarea evolutivă și învățarea automată  în domeniul inteligenței artificiale . Încă o dată, aceste tehnologii au obținut un succes comercial semnificativ într-o gamă largă de aplicații din lumea reală. De exemplu, căutarea euristică a fost folosită pentru a crea programe de magazin și planificare a programului de lucru pentru 20.000 de ingineri. Analiza datelor, împreună cu algoritmii de generare automată a clasificatorilor, dezvoltați în anii 1990 de cercetători supravegheați în învățarea automată (de exemplu, TDIDT, Support Vector Machines, Neural Nets, IBL), sunt acum utilizate pe scară largă pentru direcționarea, tendințele și detectarea caracteristicilor (caracteristici) ale sondajelor de marketing. în seturi de date.

Finanțare

Cercetătorii și economiștii evaluează situația în IA, în principal după ce proiecte de IA sunt finanțate, de cine și în ce sume. Tendințele de finanțare sunt adesea stabilite de marile instituții financiare din lumea dezvoltată. În prezent, DARPA și programul de finanțare civilă EU-FP7 oferă o parte semnificativă din finanțarea cercetării IA în SUA și Uniunea Europeană .

Pentru 2007, DARPA a luat în considerare propunerile cercetătorilor AI în cadrul unui număr de programe, inclusiv The Grand Challenge Program , Cognitive Technology Threat Warning System (CT2WS), „Human Assisted Neural Devices (SN07-43)”, „Autonomous Sistemul de Supraveghere-Imagistică Ubicuitor în timp Real (ARGUS-IS)” și „Raționamentul Urban și Exploatarea Tehnologiei Geospatiale (URGENT)”.

Probabil cel mai faimos este „The Grand Challenge Program” al DARPA [35] , care a dezvoltat vehicule rutiere complet automatizate capabile să traverseze autonom cu succes terenul real [36] .

DARPA acceptă, de asemenea, programe de pe Web-ul semantic , cu un accent puternic pe managementul inteligent al conținutului și pe înțelegerea automată. Cu toate acestea, James Hendler DARPA , și-a exprimat frustrarea față de capacitatea guvernului de a face schimbări rapide și a trecut în parteneriat cu World Wide Web pentru a transfera tehnologie către sectorul privat.

Programul de finanțare UE-FP7 oferă sprijin cercetătorilor din Uniunea Europeană. În 2007-2008, a finanțat programe de cercetare AI: Cognitive Systems: Interaction and Robotics (193 milioane euro), Biblioteci digitale și conținut digital (203 milioane euro), FET (185 milioane euro) [37] .

Frica de o nouă iarnă

Există unele temeri că o nouă iarnă cu inteligența artificială ar putea fi declanșată de promisiuni prea ambițioase sau nerealiste din partea oamenilor de știință în domeniul inteligenței artificiale consacrați sau de promisiuni excesive din partea vânzătorilor comerciali. De exemplu, la începutul anilor 1990, cercetătorii se temeau că iarna AI ar fi condusă de publicitatea pe scară largă despre planurile Cog de doi ani

James Hendler a remarcat în 2008 că finanțarea IA, atât în ​​UE, cât și în SUA, a fost redirecționată mai mult către domenii aplicate și cercetare încrucișată cu științe tradiționale, cum ar fi bioinformatica [26] . Această îndepărtare de cercetarea de bază vine în contextul în care există o tendință către aplicații practice, cum ar fi Web-ul semantic , de exemplu . Citând argumentul liniei de asamblare (vezi Motive), Handler a văzut o paralelă cu iarna anilor 1980 și a avertizat cu privire la viitoarea iarnă AI în 2010.

Venirea primăverii

Au existat rapoarte constante în trecut că o altă primăvară a IA este iminentă sau este deja aici:

În prezent, o creștere semnificativă a finanțării, dezvoltării, adoptării și utilizării comerciale a IA a dus la faptul că iarna IA a trecut de mult [39] .

Cauza

Au fost propuse mai multe explicații pentru iernile AI. Cea mai frecventă cauză a iernilor este hype-ul, dar au fost și alți factori la lucru, care sunt enumerați mai jos. Cu toate acestea, odată cu schimbarea finanțării AI de la guverne la organizațiile comerciale, a intrat în joc o nouă dinamică.

Excitare

Iarna AI poate fi văzută ca o prăbușire din cauza așteptărilor supraumflate, comparabile cu bulele economice de pe bursă, precum mania căilor ferate sau bula dot-com . Într-un model comun de dezvoltare a noilor tehnologii (cunoscut sub numele de hype cycle ), orice eveniment, cum ar fi o descoperire tehnologică, creează inițial un interes public larg răspândit, care se hrănește pe sine și creează un „vârf al așteptărilor excesive”. Este urmată de „deziluzie”, cu alte cuvinte, colaps, întrucât eforturile oamenilor de știință și inginerilor nu țin pasul cu așteptările supraîncălzite ale investitorilor și ale altor părți interesate. Tehnologiile AI au confirmat acest model de dezvoltare.

Motive organizatorice

Un alt factor a fost locul AI în organizarea universităților. Cercetarea AI ia adesea forma cercetări interdisciplinare proiectele pot implica experți din domenii, de la filozofie la inginerie . Având în vedere acest lucru, IA este supusă bolilor tipice cercetării interdisciplinare. Astfel, odată cu reducerea finanțării, facultățile vor tăia domenii non-core, care includ proiecte de cercetare interdisciplinare și neobișnuite, adică AI.

Motive economice

În timpul recesiunilor economice, guvernele reduc bugetele universităților, iar cauza organizațională se intensifică și mai mult. Investitorii în vremuri de criză aleg proiecte mai puțin riscante pentru investiții decât AI. Împreună, acest lucru transformă criza economică într-o iarnă AI. Raportul lui Lighthill a venit într-un moment de criză economică în Marea Britanie [40] când universitățile au trebuit să aleagă ce proiecte să pună sub cuțit.

Lipsa puterii de calcul

Potențialul rețelelor neuronale a fost bine recunoscut, dar nu a fost niciodată realizat datorită stadiului inițial de dezvoltare a tehnologiei computerelor. Chiar și după standardele actuale, rețelele destul de simple necesită multă putere de calcul.

Transportor gol

Legătura dintre cercetarea de bază și tehnologie este adesea prezentată ca o conductă. Progresele în cercetarea de bază dau naștere la progrese în cercetarea aplicată, care, la rândul lor, conduc la noi aplicații comerciale. Prin urmare, lipsa cercetării fundamentale duce la o reducere a pieței de tehnologie în câțiva ani în viitor. Acest punct de vedere a fost prezentat de James Hendler în 2008 [26] , care a sugerat că eșecul sistemelor expert la sfârșitul anilor 1980 nu a fost cauzat de nefiabilitatea lor inerentă, ci de reducerea finanțării pentru cercetarea fundamentală în anii 1970. Sistemele expert au apărut în anii 1980 datorită cercetării aplicate, dar până la sfârșitul deceniului conducta era goală, astfel încât deficiențele sistemelor experte nu au putut fi eliminate, astfel încât a fost imposibil să se asigure finanțare suplimentară.

Neadaptare

Prăbușirea pieței de mașini LISP și eșecul computerelor din generația a cincea sunt exemple de produse avansate scumpe care au pierdut în fața concurenților mai simpli și mai ieftini. Această situație se încadrează în definiția inovației disruptive ieftine , deoarece producătorii de mașini LISP au fost excluși. Sistemele expert au supraviețuit schimbării mașinilor, au fost transferate pe noi computere desktop, de exemplu, cu ajutorul CLIPS , ceea ce face clar că prăbușirea pieței de mașini LISP și colapsul sistemelor expert sunt două evenimente diferite. Incapacitatea de a se adapta la o astfel de schimbare a pieței calculatoarelor este considerată unul dintre motivele pentru iarna anilor 1980 [26] .

Dezbatere despre trecutul și viitorul AI

Filosofii, cognitiviștii , informaticienii speculează unde AI a eșuat și ce se va întâmpla cu ea în viitor. Hubert Dreyfus a subliniat falsitatea ipotezelor cercetării AI trecut și a prezis corect încă din 1966 că primul val de cercetare AI nu va reuși să își îndeplinească promisiunile publice pe care le-a făcut. Alți critici, precum Noam Chomsky, au susținut că IA se mișcă în direcția greșită, în parte din cauza dependenței sale puternice de metodele statistice [41] . Remarcile lui Chomsky se încadrează într-o discuție mai largă cu Peter Norvig despre rolul metodelor statistice în IA. Disputa dintre oameni de știință a început cu comentariile lui Chomsky la un simpozion de la Institutul de Tehnologie din Massachusetts [42] , la care Norvig a scris un răspuns [43] .

Note

  1. 1 2 Buletin informativ al experților AI: W este pentru iarnă Arhivat din original pe 9 noiembrie 2013.
  2. 1 2 3 Crevier, Daniel. AI: Căutarea tumultoasă a inteligenței artificiale. - 1993. - S. 203. - ISBN 0-465-02997-3 .
  3. Kaplan Andreas; Michael Haenlein (2018) Siri, Siri in mana mea, cine este cel mai frumos din tara? On the Interpretations, Illustrations and Implications of Artificial Intelligence, Business Horizons, 62(1) (link mort) . Consultat la 25 noiembrie 2018. Arhivat din original la 21 noiembrie 2018. 
  4. Kurzweil, Ray. Singularitatea este aproape . — Viking Press. — 2005.
  5. J. Howe. Inteligența artificială la Universitatea Edinburgh: o perspectivă (noiembrie 1994). Arhivat din original pe 17 august 2007. : „Raportul Lighthill [1973] a provocat o pierdere masivă a încrederii în IA din partea instituției academice din Marea Britanie (și într-o măsură mai mică în SUA). A persistat timp de un deceniu - așa-numita „iarnă AI””
  6. Stuart J. Russell , Peter Norvig (2003), Artificial Intelligence: A Modern Approach (ed. a doua), Upper Saddle River, New Jersey: Prentice Hall, p. 24, ISBN 0-13-790395-2 , < http://aima.cs.berkeley.edu/ > Arhivat 28 februarie 2011 la Wayback Machine : „În general, industria inteligenței artificiale a crescut de la câteva milioane de dolari în 1980 la miliarde de dolari în 1988. La scurt timp după aceea, a început o perioadă numită „iarna AI”. 
  7. 1 2 John Hutchins 2005 Istoria traducerii automate pe scurt. Arhivat pe 13 iulie 2019 la Wayback Machine
  8. Hutchins, John. 1995. „Whisky-ul era invizibil”, sau Mituri persistente ale MT. Preluat de la http://www.hutchinsweb.me.uk/MTNI-11-1995.pdf Arhivat 4 aprilie 2020 la Wayback Machine
  9. Russell, Norvig, 2003 , p. 21.
  10. Crevier, 1993 , p. 203.
  11. 1 2 3 4 McCorduck, 2004
  12. Pamela McCorduck a citat un coleg: „Era un vis al biroului de presă, un adevărat șaman”. ( Mccorduck 2004 )
  13. 1 2 3 4 5 6 7 8 Crevier, 1993
  14. Crevier 1993 , McCorduck 2004 , Russell & Norvig 2003
  15. Crevier, 1993 și Russell & Norvig, 2003
  16. 1 2 Crevier, 1993 , Russell & Norvig, 2003 , Howe, 1994 și vezi și Lighthill, 1973
  17. BBC Controversy Lighthill debate 1973 . Seria de dezbateri BBC „Controversy” . INSTITUTUL DE INTELIGENTĂ_ARTIFICIALĂ-APLICAȚII. Preluat la 13 august 2010. Arhivat din original la 1 mai 2013.
  18. McCarthy, John Review of the Lighthill Report . Consultat la 10 septembrie 2008. Arhivat din original la 30 septembrie 2008.
  19. Hendler, James Avoiding Another AI Winter . Arhivat din original pe 12 februarie 2012.
  20. 1 2 NRC, 1999 (secțiuni anterioare anului 1980)
  21. 1 2 Russell & Norvig, 2003
  22. NRC, 1999
  23. Crevier, 1993 (pe care se bazează această relatare). Alte opinii includ McCorduck, 2004 și NRC, 1999, sub „Success in Speech Recognition”
  24. NRC, 1999 sub „Succes in Speech Recognition”
  25. Brooks, Rodney Proiectarea unui compilator de optimizare, redirecționabil dinamic pentru LISP comun . Arhivat din original pe 20 august 2013. Lucid, Inc.
  26. 1 2 3 4 Avoiding another AI Winter Arhivat 12 februarie 2012 la Wayback Machine , James Hendler, IEEE Intelligent Systems (martie/aprilie 2008 (vol. 23, nr. 2) pp. 2-4
  27. 1 2 Construirea de interfețe umane pentru sistemele expert de diagnosticare a erorilor I: Proiectarea interfeței umane pentru a sprijini diagnosticarea defecțiunilor cooperative
  28. Alex Castro în Vorbești cu mine? The Economist Technology Quarterly (7 iunie 2007) Arhivat din {{{2}}}.
  29. Firmele de robotică se confruntă cu o luptă pentru strângerea de fonduri, cu capitalul de risc timid . De Patty Tascarella. Pittsburgh Business Times (11 august 2006) Arhivat din {{{2}}}.
  30. 123 Markoff . _ _ În spatele inteligenței artificiale, o escadrilă de oameni strălucitori reali , The New York Times  (14 octombrie 2005). Consultat la 30 iulie 2007.
  31. 12 Kurzweil , 2005 , p. 264.
  32. NRC, 1999 sub „Inteligenta artificiala in anii 90”
  33. 12 Kurzweil , 2005 , p. 263.
  34. Pentru utilizarea AI la Google, a se vedea Omul Google în spatele cortinei , Google sprijină recunoașterea caracterelor Arhivat 14 iulie 2014 la Wayback Machine și Spying un motor de căutare inteligent Arhivat 14 iulie 2014 la Wayback Machine .
  35. Grand Challenge Home Arhivat 24 decembrie 2010.
  36. DARPA Arhivat 6 martie 2009.
  37. Tehnologiile informației și comunicațiilor în FP7  (link indisponibil) , document de prezentare generală pentru finanțarea Uniunii Europene. Consultat la 20 septembrie 2007.
  38. Reddy, Raj Foundations and Grand Challenges of Artificial Intelligence . Asociația pentru Avansarea Inteligenței Artificiale (1988). Arhivat din original pe 5 iunie 2012.
  39. Newquist, HP. The Brain Makers, ediția a doua. - New York, NY : The Relayer Group, 2018. - P. 491.
  40. https://www.theguardian.com/obituaries/story/0,,2122424,00.html necrologul lui Donald Michie în The Guardian Arhivat din original pe 27 ianuarie 2008.
  41. Yarden Katz, „Noam Chomsky on Where Artificial Intelligence Went Wrong” , The Atlantic, 1 noiembrie 2012 Arhivat la 3 noiembrie 2012.
  42. Noam Chomsky, „Pinker/Chomsky Q&A from MIT150 Panel” Arhivat 17 mai 2013.
  43. ^ Peter Norvig, On Chomsky and the Two Cultures of Statistical Learning” Arhivat 27 mai 2011.

Literatură