Mai multe personalități din domeniul tehnologiei și inovației au publicat o scrisoare deschisă în care somează toate companiile să stopeze imediat dezvoltarea în domeniul Inteligenței Artificiale.
„Cursa pentru dezvoltarea AI este scăpată de sub control”, se arată în scrisoare, potrivit Adevărul.
Elon Musk, avertizează guvernele
Elon Musk, fondatorul Tesla și unul dintre cei mai bogați oameni din lume, se numără printre semnatari. Pe listă apar și Steve Wozniak, cofondator Apple, filosoful Yuval Noah Harari, precum și numeroși oameni de știință care lucrează în domeniul AI.
Scrisoarea pledează pentru stoparea procesului de dezvoltare a Inteligenței Artificiale. Inițiativa este motivată de îngrijorările ridicate de avansul AI pentru securitatea umanității.
„Sistemele puternice de AI ar trebui dezvoltate doar atunci când suntem siguri că efectele lor vor fi pozitive și riscurile lor pot fi controlate”, continuă scrisoarea.
Pierdem controlul asupra civilizației
„Sistemele de AI contemporane devin acum competitive față de nivelul uman în ceea ce privește sarcinile generale și de aceea trebuie să ne întrebăm: ar trebui să lăsăm mașinile să inunde canalele noastre de informații cu propagandă și neadevăruri? Ar trebui să permitem dispariția prin automatizare a tuturor job-urilor, inclusiv a celor care aduc satisfacție celor care le îndeplinesc? Ar trebui să dezvoltăm minți non-umane care ar putea ajunge să ne depășească numeric, să devină mai deștepte decât noi, să ne facă redundanți și să ne înlocuiască? Ar trebui să riscăm să pierdem controlul asupra civilizației noastre?”, întreabă semnatarii scrisorii.
„Prin urmare, cerem tuturor laboratoarelor AI să intre imediat într-o pauză de cel puțin șase luni, timp în care să înceteze procesul de învățare (de dezvoltare, îmbunătățire și rafinare – n.r.) a sistemelor AI mai puternice decât nivelul GPT-4. Această pauză ar trebui să fie publică și să poată fi verificată, iar etapa să includă toți actorii-cheie. Dacă o astfel de pauză nu poate fi pusă rapid în aplicare, guvernele ar trebui să intervină și să instituie moratorii”, solicită oamenii de știință.
„Laboratoarele AI și experții independenți ar trebui să folosească această pauză pentru ca împreună să poată dezvolta și implementa un protocol de securitate comun pentru dezvoltarea sistemelor avansate de AI, precum și pentru auditarea riguroasă și supravegheată a acestor procese de către experți independenți externi”, este recomandarea scrisorii deschise.