Un cercetător în domeniul inteligenţei artificiale, care a avertizat asupra pericolelor tehnologiei încă de la începutul anilor 2000, anunţa că ar trebui să „închidem totul”, într-un editorial alarmant publicat miercuri de revista Time, citat de Business Insider.
Eliezer Yudkowsky, un cercetător şi autor care lucrează la Inteligenţa Generală Artificială din 2001, a scris articolul ca răspuns la o scrisoare deschisă din partea mai multor nume mari din lumea tehnologiei, care a cerut un moratoriu asupra dezvoltării IA timp de şase luni.
Scrisoarea, semnată de 1.125 de persoane, printre care Elon Musk şi cofondatorul Apple, Steve Wozniak, a solicitat o pauză în ceea ce priveşte antrenarea unor tehnologii de inteligenţă artificială mai puternice decât GPT-4, lansat recent de OpenAI.
În articol, intitulat „Pauză dezvoltării AI nu este suficientă. Trebuie să închidem totul”, Yudkowsy scrie că s-a abţinut să semneze scrisoarea deoarece aceasta subestimează „gravitatea situaţiei” şi cere „prea puţin pentru a o rezolva”.
El a scris: „Mulţi cercetători implicaţi în aceste probleme, inclusiv eu însumi, se aşteaptă ca cel mai probabil rezultat al construirii unei inteligenţe artificiale supraumane, în circumstanţe care seamănă cât de cât cu cele actuale, să ducă literalmente la consecinţa că toată lumea de pe Pământ va muri”.
Urmăriți PressHUB și pe Google News!