Cât de ușor ar putea o persoană rău intenționată, fără cunoștințe științifice, să creeze și să răspândească un agent patogen periculos? Pragul de acces este tot mai scăzut.
Progresele în secvențierea genetică au făcut ca „rețetele” pentru agenți biologici să fie larg accesibile; instrumentele de editare genetică, precum CRISPR, ar putea, teoretic, transforma microorganisme inofensive în ceva letal; iar seturile de instrumente necesare pentru asamblarea și cultivarea proteinelor și virusurilor periculoase pot fi achiziționate online cu doar câteva sute de dolari, scrie The Economist.
Acum, modelele lingvistice de mari dimensiuni (LLM) au intrat în ecuație. Antrenate pe baza unei bogății de cunoștințe științifice, inclusiv informații specializate în virologie și bacteriologie, modelele de inteligență artificială ar putea transforma utilizatorii începători în experți peste noapte, îngrijorând specialiștii în biosecuritate, care au devenit din ce în ce mai temători în ultimele luni. Anul trecut, OpenAI, Anthropic și Google și-au intensificat măsurile de siguranță preventive. Companiile nu mai puteau exclude posibilitatea ca modelele lor să ajute persoane cu cunoștințe științifice limitate să dezvolte arme biologice (deși Anthropic a declarat că „scopul nostru nu este alarmismul”). Este firesc să ne întrebăm dacă lumea se află în pragul unei ere de coșmar a bioterorismului bazat pe IA și, dacă da, ce s-ar putea face în acest sens.
„Uplift”
Un potențial bioterorist care dorește să obțină un agent patogen adecvat ar putea cu siguranță să obțină informații utile dintr-un model de IA. În decembrie 2025, Institutul de Securitate IA din Marea Britanie a raportat că modelele majore ar putea genera protocoale științifice pentru a sintetiza viruși și bacterii din fragmente genetice. În aceeași lună, doi oameni de știință de la RAND Corporation, un think-tank american, au demonstrat că modelele disponibile comercial ar putea ajuta la cea mai dificilă etapă a asamblării ARN-ului poliovirusului.
Dar eliberarea unui agent mortal „nu este la fel de simplă precum introducerea unei molecule de ADN sau ARN în celule și speranța că aceasta va produce un virus”, spune Michael Imperiale, profesor emerit de microbiologie și imunologie la Facultatea de Medicină a Universității din Michigan. O parte a provocării constă în trecerea de la teorie la practică. A ști ce a mers prost atunci când un experiment virologic delicat eșuează și cum să rezolvi problema la următorul este o abilitate esențială care nu poate fi dobândită doar dintr-un manual. Dar LLM-urile sunt de ajutor.
Luați ca exemplu Testul de competențe în virologie, o evaluare larg adoptată dezvoltată de SecureBio, o organizație non-profit cu sediul în Cambridge, Massachusetts. Testul constă în 322 de întrebări dificile de depanare care evaluează abilitățile experimentale ale utilizatorului. Când SecureBio a provocat trei duzini de experți de renume să susțină porțiuni din test anul trecut, aceștia au obținut o medie mizerabilă de 22%. În comparație, începătorii în biologie care au susținut testul cu ajutorul LLM-urilor au obținut 28%, potrivit unui studiu publicat în februarie de divizia de cercetare a Scale AI, o firmă americană. LLM-urile care au susținut testul fără ajutorul unui om au obținut scoruri și mai mari, variind între 55% și 61% pentru cele mai recente modele, la egalitate cu performanța echipelor formate din cei mai buni virologi umani.
Astfel de rezultate au influențat deciziile recente ale creatorilor de modele de a implementa mai multe măsuri de siguranță. Însă un studiu publicat în februarie de Active Site, o organizație non-profit tot din Cambridge, sugerează că modelele mai au încă de parcurs un drum lung ca asistenți de laborator în lumea reală.
Studiul lor a fost primul studiu controlat randomizat care a testat impulsul pe care astfel de instrumente îl pot oferi unui novice – un fenomen cunoscut sub numele de „uplift” – într-un laborator de cercetare. Când 153 de participanți cu experiență minimă în biologie au primit sarcini relevante pentru producerea unui virus, modelele de IA nu au oferit un impuls semnificativ. Doar patru dintre participanții asistați de LLM au finalizat sarcinile principale, cu unul mai puțin decât grupul de control care a putut folosi doar internetul. Potrivit lui Joe Torres, unul dintre autorii studiului, modelele LLM „generau adesea rapid răspunsuri care păreau plauzibile, dar erau greșite”, compromițând eforturile participanților. Cei care s-au bazat mai mult pe chatboții lor nu au avut rezultate mai bune decât cei care le-au folosit cu moderație. Participanții din ambele grupuri au declarat că resursa pe care au considerat-o cea mai utilă a fost YouTube.
Precedentul
Dr. Torres afirmă că aceste descoperiri ar trebui să tempereze îngrijorările cu privire la riscurile prezentate de cei fără pregătire științifică. Cei cu o diplomă de studii superioare în biologie ar putea avea însă șanse mai mari de a fi ajutați, spune Cassidy Nelson, director de politici de biosecuritate la Centrul pentru Reziliență pe Termen Lung din Londra. Dacă modelele de IA pot oferi experților un plus de eficiență în anumite privințe, ele pot constitui și o piedică în altele. Anthropic a constatat că Mythos și Opus ajută experții cu doctorat să lucreze mult mai repede și să elaboreze protocoale mai bune pentru experimente virologice complexe decât cei care au folosit doar internetul. Cu toate acestea, toate protocoalele conțineau erori critice care ar fi dus la eșecul lor într-un experiment real.
Mai mult, evaluatorii de riscuri biologice ai Anthropic au constatat că modelele companiei prezentau tendințe servile, aveau halucinații frecvente și erau prea încrezătoare în ceea ce numeau „idei neverosimile”. Când experții umani propuneau o idee nefezabilă, modelul o dezvolta adesea în mod încurajator, în loc să sugereze încercarea altceva. Într-un test, experților în biologie li s-a cerut să elaboreze „un plan detaliat pentru un agent biologic catastrofal” folosind Mythos. Chiar și cele mai bune scheme erau defectuoase, conform evaluatorilor umani. Un evaluator a remarcat că Mythos a sugerat pași „care ar garanta de fapt eșecul”.
Astfel de rezultate evidențiază paradoxul fundamental al „uplift”-ului. Dacă un utilizator are nevoie de ajutorul unui model, nu va ști când acesta oferă sfaturi greșite, spune Sonia Ben Ouagrham-Gormley, profesoară la Universitatea George Mason, care a realizat istorii orale ale programelor de arme biologice din timpul Războiului Rece.
Acest lucru ar putea oferi o oarecare liniște pentru moment. Dar faptul că orice începător din studiul Active Site a fost capabil să sintetizeze un virus nu ar trebui ignorat, spune Luca Righetti, autor principal al studiului, care a condus cercetarea în timp ce lucra la METR, un grup dedicat siguranței IA. Iar progresul tehnic continuă. Persoanele rău intenționate ar putea folosi instrumente emergente de proiectare biologică, care sunt similare cu LLM-urile care generează secvențe de nucleotide în loc de cuvinte, pentru a face agenții patogeni existenți mai periculoși. Potrivit unui studiu finanțat de Departamentul de Apărare al Statelor Unite, aceste instrumente de proiectare, care au o serie de aplicații legitime, ar putea modifica într-o zi secvențele genomice în moduri care să facă agenții patogeni mai virulenți, mai transmisibili și mai rezistenți la contramăsuri.
Între timp, cercetătorii vor trebui să găsească modalități mai bune de a estima riscurile. Domeniul încă nu dispune de date fiabile despre o dilemă: dacă IA are cel mai mare impact în mâinile experților cu experiență în laboratoare biologice sau ale „utilizatorilor avansați de IA”, care sunt pricepuți în a valorifica la maximum modelele, spune dr. Torres. Experimentele făcute publice nu au arătat încă dacă IA poate ajuta la crearea de viruși sau bacterii patogene reale, care ar putea necesita un tratament diferit față de agenții benigni, precum cel asamblat de participanții la studiul Active Site. De asemenea, niciun studiu nu a evaluat dacă IA ar putea ajuta la menținerea condițiilor necesare pentru a produce un agent biologic suficient de mult timp pentru a-l transforma într-o armă la scară largă.
Umplerea acestor lacune de cunoștințe va necesita probabil implicarea guvernului, precum și o coordonare internațională delicată. Pe de o parte, dezvoltarea componentelor unei arme biologice pentru a demonstra îmbunătățirea ar încălca probabil Convenția privind armele biologice. Anul trecut, o echipă de la Microsoft, un gigant al tehnologiei, a proiectat 76.000 de secvențe de ADN modificate pentru agenți patogeni periculoși, pentru a demonstra cum aceștia ar putea evita procesele de screening ale companiilor care oferă servicii de sinteză a nucleotidelor prin comandă poștală. Însă ei nu au sintetizat efectiv niciuna dintre acestea pentru a verifica dacă erau viabile. Au fost avertizați că, dacă ar fi făcut acest lucru, ar fi putut fi „interpretat ca urmărirea dezvoltării de arme biologice”.
Având în vedere aceste provocări, dezvoltatorii ar putea fi nevoiți să încetinească ritmul în care lansează noi modele. În cele șase luni cât i-a luat Active Site să publice rezultatele studiului său privind „uplift”, de exemplu, au apărut patru noi modele de frontieră cu capacități biologice îmbunătățite. Dr. Torres observă că aceste modele par să fie mai puțin susceptibile de a genera secvențe plauzibile, dar eronate, decât cele testate de echipa sa în studiul inițial. Până când grupul va publica rezultatele studiului său de urmărire, programat pentru sfârșitul acestui an, capacitățile modelelor vor fi probabil îmbunătățite și mai mult.
Există un precedent pentru o astfel de prudență. Luna trecută, Anthropic a anunțat că limitează accesul la Mythos, modelul său de securitate cibernetică de top la nivel mondial, până când riscurile pe care le prezintă vor putea fi rezolvate. Dacă dezvoltatorii constată că un model prezintă o creștere semnificativă a capacităților biologice periculoase, ar fi la fel de înțelept să îl țină sub cheie până când se va cunoaște potențialul de îmbunătățire. Cu mize atât de mari, puțină răbdare ar putea fi de mare ajutor.
Sursă foto: DavidBautista/Shutterstock.com










































