Yuval Noah Harari a avertizat că lumea interpretează greșit calendarul dezvoltării inteligenței artificiale și că adevăratul pericol nu constă în viteza cu care evoluează tehnologia, ci în modul superficial în care este tratată.
Vorbind recent la Forumul Economic Mondial de la Davos, istoricul și autorul cărții „Sapiens. Scurtă istorie a omenirii” a spus că, atunci când discută despre impactul pe termen lung al IA, nu se gândește la ani sau chiar decenii.
„În multe dintre discuțiile de aici, de la Davos, când se vorbește despre «pe termen lung»”, lumea se raportează la doi ani”, a spus Harari. „Când eu spun pe termen lung, mă gândesc la 200 de ani.”
Harari a comparat momentul actual al IA cu începuturile Revoluției Industriale, spunând că umanitatea tinde să înțeleagă greșit tehnologiile transformatoare pe măsură ce acestea se dezvoltă, relatează Business Insider.
Consecințele cele mai profunde ale industrializării au durat generații întregi până să se manifeste pe deplin, a spus el - adesea prin tulburări sociale, politice și geopolitice pe care nimeni nu le-ar fi putut prevedea în avans.
„Poți testa accidentele”, a spus el. „Dar nu poți testa într-un laborator implicațiile geopolitice sau culturale ale motorului cu aburi. La fel este și cu IA.”
Harari a avertizat că, chiar dacă dezvoltarea IA s-ar opri astăzi, efectele sale pe termen lung ar fi în continuare imposibil de prevăzut.
„Piatra a fost aruncată în bazin, dar abia a atins apa”, a spus el. „Nu avem nicio idee ce valuri au fost create, chiar și de IA-urile care au fost implementate acum un an sau doi.”
Harari se alătură unei mulțimi de cercetători seniori în domeniul IA și lideri tehnologici care și-au exprimat îngrijorarea legate de riscurile inteligenței artificiale, de pierderea locurilor de muncă și până la dispariția umanității.
Cu toate acestea, ceea ce îl îngrijorează cel mai mult, a spus Harari, nu este doar incertitudinea, ci și complacerea. El a spus că mulți dintre cei mai puternici factori de decizie care modelează IA se concentrează pe stimulente pe termen scurt, și nu pe consecințele pe termen lung.
„Sunt îngrijorat de seninătatea cu care producem cea mai puternică tehnologie din istoria umanității”, a spus el.
„Oameni foarte inteligenți și puternici sunt îngrijorați de ceea ce vor spune investitorii lor în următorul raport trimestrial”, a spus Harari. „Ei gândesc în termeni de câteva luni, sau un an sau doi.”
Consecințele sociale ale IA, a atras el atenția, se vor manifesta mult dincolo de acest orizont, indiferent dacă lumea este pregătită sau nu.
Sursă foto: CineVI/Shutterstock.com











































