Eliezer Yudkowsky este un cercetător de frunte în domeniul inteligenței artificiale și susține că „toată lumea de pe pământ va muri” dacă nu oprim dezvoltarea sistemelor informatice supraumane, scrie The Sun.
Bărbatul de 43 de ani este un co-fondator al Machine Intelligence Research Institute și (MIRI) și susține că știe exact cât de „îngrozitor de periculoasă este această tehnologie”.
Se teme că atunci când vine vorba de oameni versus inteligență mai inteligentă decât cea umană, rezultatul este o „pierdere totală”, a scris el în TIME.
Ca metaforă, spune el, ar fi ca un „secolul “XI” care încearcă să lupte cu secolul XXI”.
Pe scurt, oamenii ar pierde dramatic.
Pe 29 martie, experții de seamă de la OpenAI au trimis o scrisoare deschisă numită,, Pauză experimentele AI gigantice „care a cerut interzicerea imediată a instruirii sistemelor AI puternice timp de șase luni.
A fost semnat de co-fondatorul Apple Steve Wozniak și Elon Musk.
Cu toate acestea, teoreticianul american spune că a refuzat să semneze această petiție deoarece „cere prea puțin pentru rezolvarea”.
Amenințarea este atât de mare el susține că extincția prin IA ar trebui „considerată o prioritate mai presus de prevenirea unui schimb nuclear complet”.
El avertizează că rezultatul cel mai probabil al științei roboților este că vom crea „AI care nu face ceea ce vrem și nu-i pasă de noi și nici de viață conștientă în general”.
„Dacă cineva construiește sau IA prea puternică, în condițiile actuale, mă aștept ca fiecare membru al speciei umane și toată viața biologică de pe Pământ să moară la scurt timp după aceea.”
Yudkowsky este dornic să sublinieze că în prezent „nu avem idee cum să stabilim dacă sistemele AI sunt conștiente de ele însele”.
Ceea ce înseamnă aceasta că oamenii de știință ar putea crea accidental „minți digitale care sunt cu adevărat conștiente” și apoi se strecoară în tot felul de dilemă morală că ființele conștiente ar trebui să aibă drepturi și nu să fie deținute.
Ignoranța noastră, imploră el, va fi căderea noastră.
Întrucât cercetătorii nu știu dacă creează o inteligență artificială cunoștință de sine, el spune: „nu ai idee ce faci și asta este periculos și ar trebui să te oprești”.
Yudkowsky susține că ne-ar putea dura de ani pentru a rezolva problema siguranței în inteligența supraomenească – această siguranță fiind „nu ucide literalmente pe toată lumea” – și în acel timp am putea fi cu toții morți.
Punctul central al expertului este următorul: „Nu suntem pregătiți. Nu suntem pe cale să fim pregătiți într-o fereastră de timp rezonabilă. Nu există niciun plan.
„Progresul în capacități AI se derulează cu mult înaintea progresului… în înțelegerea ce naiba se întâmplă în interiorul acelor sisteme. Dacă facem cu adevărat asta, vom muri cu toții.”
Pentru a evita această catastrofă zguduitoare, Yudkowsky consideră că singura modalitate este de a opri toate noii forme de instruire pe tehnologia AI la nivel mondial, „fără excepții, inclusiv guvernamentale și armatei”.
Dacă cineva încalcă acest acord, expertul AI spin dovedește seriozitatea ar trebui „să fie dispuse să distrugă un centru de date necinstite prin atacuri aeriene”.
„Să fie clar că oricine vorbește despre curse înarmărilor este un prost. Că noi toți trăim sau murim ca unul, în acest sens, nu este o politică, ci un fapt al naturii”.
Dându-și punctul de vedere, Yudkowsky încheie cu: „Dacă mergem înainte cu asta, toată lumea va muri”.