Putem să o numim panică preventivă, îngrijorare vizavi de frenezia SF sau pur şi simplu atitudine prudentă vizavi de o problemă viitoare, însă frica legată de inteligenţa artificială câştigă tot mai multă priză printre cei avizaţi. Cel mai nou exemplu în acest sens vine sub forma unei scrisori deschise, postate duminică online şi semnate defaimosul Stephen Hawking şi de Elon Musk de la Tesla.
Persoana lui Stephen Hawking a fost în urmă cu două zile pomenită pe scena Globurilor de Aur în discursul de primire a trofeului de interpretare ţinut de actorul Eddie Redmayne. Acesta se cufundă atât de deplin în personalitatea ieşită din comun a fizicianului Stephen Hawking, încât publicul uită că e vorba de un actor în filmul The Theory of Everything.
Revenind la recenta scrisoare deschisă semnată de Hawking, acesta atrage atenţia că sistemele de inteligenţă artificială care ar putea avea un comportament imprevizibil, notează publicaţia Mashable. Hawking a vorbit despre noul software produs de către Intel Labs care poate anticipa următoarele cuvinte ţinând cont de cele deja rostite. Deşi fizicianul vede beneficiile inteligenţei artificiale, Hawking susţine că, în viitor, computerele ar putea să se auto-proiecteze într-un ritm alarmant: „Oamenii, care au propriile limite biologice în ceea ce priveşte evoluţia, nu pot ţine pasul, şi vor fi depăşiţi”.
Într-o secţiune descrisă la capitolul „control”, scrisoarea deschisă susţine:Pentru anumite tipuri de inteligenţă artificială - critice din punct de vedere al siguranţei - în special vehiculele şi armamentul - este necesară menţinerea unui control uman eficient, fie că e vorba de un om în schema de decizie, deasupra schemei de decizie, sau într-un anume protocol. În oricare dintre aceste cazuri,este necesar a se impune păstrarea controlului uman.
Mai jos, documentul recomandă restricţionarea inteligenţei artificiale, atingându-se esenţa problemei (situaţiile care pot scăpa de sub control): În particular, dacă problemele de valabilitate şi de control nu sunt rezolvate, poate fi util să fie create „containere” pentru sistemele de inteligenţă artificială care ar putea avea un comportament imprevizibil şi consecinţe într-un mediu mai puţin controlat. Atât aspectul teoretic cât şi cel practic merită investigate.
Totuşi, cea mai directă referire la inteligenţa artificială care ameninţă să capete controlul vine odată cu menţionarea unui studiu, care citează Universitatea Stanford, intitulat „Studiu Stanford de 100 de ani despre inteligenţa artificială”:
Studiul Stanford de o sută de ani cuprinde ipoteza „Pierderea controlului asupra sistemelor de inteligenţă artificială”, subliniind îngrijorarea asupra posibilităţii ca „într-o zi să pierdem controlul asupra sistemelor de inteligenţă artificială, prin naşterea unor „superinteligenţe” care nu mai acţionează în concordanţă cu intenţiile factorului uman - şi aceste sisteme pot ameninţa omenirea”.
De curând, Elon Musk, fondatorul Tesla şi SpaceX, a comparat inteligenţa artificială cu războaiele nucleare şi chiar cu demonii. „Cu inteligenţa artificială, noi invocăm un demon”, declara Musk pentru publicul de la MIT Centennial Symposium. „Ştiţi că în toate poveştile astea cu pentagrame şi cu diavoli, protagonistul crede că poate ţine demonul sub control. Dar nu e aşa”. Musk a declarat că inteligenţa artificială este cea mai mare ameninţare la adresa omenirii şi face apel la o supraveghere atentă la nivel naţional sau internaţional.
Părerea ta
Spune-ţi părereaCat despre tematica similara din cinematografie, intreaga colectie se inspira si se reazama apasat ideea din poemul lui Goethe - Der Zauberlehrling - unde matura vrajitorului, odata pornita, nu se mai opreste (din lipsa de documentatie)... Doar "interfata" e noua si transpusa, formula de exprimare fiind modificata si adaptata vremurilor noastre...