ChatGPT Atles, el navegador amb intel·ligència artificial d'OpenAI, s'ha col·locat al centre del debat sobre seguretat digital en anar guanyant funcions d'autonomia a la web, semblant al salt a plataforma que va suposar la App Store de ChatGPT. L'eina promet agilitzar tasques quotidianes com llegir correus, omplir formularis o moure's per diferents pàgines, però aquesta capacitat l'ha convertit en un objectiu especialment atractiu per als atacs d'injecció de prompts.
Davant aquest panorama, la companyia dirigida per Sam Altman ha anunciat un reforç important de les defenses de ChatGPT Atlas per fer front a les tècniques que busquen colar instruccions malicioses en continguts aparentment innocus. OpenAI admet que l'amenaça no desapareixerà, però sosté que pot incrementar de manera notable la dificultat i el cost d'aquests atacs, una cosa clau per a usuaris particulars i organitzacions a Espanya i la resta d'Europa, especialment en entorns dependents d'acords al núvol com el signat amb Amazon.
Què és la injecció de prompts i per què posa en perill el mode agent
l'anomenada injecció de prompts o d'instruccions ha esdevingut una de les vulnerabilitats més delicades per als sistemes de IA generativa. El mecanisme és relativament senzill: l'atacant amaga ordres malicioses dins de correus electrònics, pàgines web, documents o fins i tot fragments aparentment irrellevants, confiant que el model de llenguatge les interpreti com a ordres a seguir.
En el cas de ChatGPT Atlas i el seu mode agent, el problema s'amplifica perquè el navegador està dissenyat per analitzar contingut generat per tercers i actuar de forma gairebé autònoma. Podeu visitar llocs, llegir missatges, completar formularis o desencadenar fluxos de treball complexos sense que l'usuari hagi de revisar cada pas de manera manual, cosa que obre la porta perquè una instrucció oculta derivi a accions no desitjades.
OpenAI ha explicat que la manera agent és capaç de treballar durant desenes o fins i tot centenars de passos per complir una tasca demanada per lusuari. Si a mig procés es cola una injecció de prompts ben dissenyada, la IA podria acabar trencant les seves pròpies barreres de seguretat i executant ordres que en circumstàncies normals quedarien bloquejades.
Entre els vectors que més preocupen la companyia hi ha la injecció de porta-retalls, una tècnica en què el sistema copia de forma automàtica un enllaç o contingut maliciós sense que la persona davant de l'ordinador sigui conscient. El risc apareix quan l'usuari enganxa aquest text a la barra d'adreces o una altra aplicació, moment en què s'activa l'atac.
La pròpia OpenAI situa la injecció de prompts a la mateixa categoria que les estafes en línia o l'enginyeria social: fenòmens que es poden mitigar, però que difícilment s'eliminen del tot. Per això descrigui aquest tipus d'atacs com un desafiament estructural i de llarg recorregut per a qualsevol agent d'IA que es mogui per la web oberta.

L'actualització de seguretat: defensa continuada i resposta ràpida
Per fer front a aquest escenari, OpenAI ha posat en marxa una actualització específica de seguretat per ChatGPT Atlas, centrada en la detecció i la mitigació primerenca d'atacs d'injecció. El cor daquest reforç és un nou model entrenat expressament per enfrontar-se a adversaris que intenten manipular el comportament de l'agent.
Aquest model s'integra a un sistema de defensa continua, pensat per anar ajustant les proteccions del navegador a mesura que sorgeixen tècniques més complexes d'atac. La companyia assegura que l'objectiu és descobrir i corregir vulnerabilitats internes abans que es converteixin en “armes a la pràctica”, és a dir, abans que els atacants les explotin en entorns reals. Aquesta línia de treball va paral·lelament a iniciatives d'infraestructura i seguretat impulsades per socis com la aliança de Samsung i OpenAI.
Un altre element clau és la implantació de un cicle de resposta ràpida, desenvolupat juntament amb l'equip vermell intern d'OpenAI. Aquest grup es dedica a investigar nous vectors d'atac, provar-los a escenaris controlats i desplegar mitigacions amb la major agilitat possible, de manera similar a com funcionen els equips de ciberseguretat ofensiva en moltes grans tecnològiques.
A la pràctica, això es tradueix que ChatGPT Atlas rep ajustaments freqüents orientats a reaccionar amb més cautela davant de patrons sospitosos: des d'instruccions contradictòries incrustades en un paràgraf fins a indicacions subtils disperses en diferents punts d'una pàgina web o d'una cadena de correus.
OpenAI subratlla que aquesta estratègia no és un pegat puntual, sinó un procés en marxa que acompanyarà el navegador a mesura que augmenti el grau d'autonomia. Aquesta visió és especialment rellevant per a empreses europees, molt atentes a l'estabilitat, el compliment regulatori i la gestió de riscos quan incorporen solucions d'IA als seus fluxos de treball.
Un “atacant automatitzat” que aprèn com un hacker
Un dels aspectes més cridaners de l'enfocament d'OpenAI és la creació de un “atacant automatitzat basat en LLM”, un bot dissenyat per exercir, de forma controlada, el paper d'un hacker que busca forats al sistema. Lluny de limitar-se a proves estàtiques, aquest atacant artificial aprèn i adapta les tàctiques amb el temps.
La companyia explica que el bot s'entrena mitjançant aprenentatge per reforç, una tècnica en què el sistema rep retroalimentació en funció de si els seus intents d'atac tenen èxit o no. Quan l'agent de ChatGPT Atlas resisteix una ofensiva, l'atacant analitza la resposta, ajusta la seva estratègia i torna a intentar-ho en iteracions successives.
Segons les dades compartides per OpenAI, aquest atacant automatitzat és capaç de induir l'agent a executar fluxos de treball nocius molt sofisticats, que poden prolongar-se durant desenes o fins i tot centenars de passos encadenats. L'objectiu no és que aquests atacs arribin a l'usuari final, sinó reproduir al laboratori escenaris que podrien donar-se al món real.
Tots aquests assaigs tenen lloc a entorns simulats, de manera que la companyia pot observar amb detall com raona l'agent davant de cada intent de manipulació. Aquest nivell de visibilitat permet identificar patrons de comportament problemàtics i reforçar les defenses en punts concrets que serien difícils de detectar només amb proves manuals o atacs externs.
OpenAI afirma que gràcies a aquest sistema està aconseguint descobrir estratègies d'atac inèdites, és a dir, tècniques que no havien sorgit en exercicis de xarxa teaming humà ni en informes de tercers. Aquesta capacitat per anar un pas per davant dels potencials atacants és, segons la companyia, un dels principals avantatges de combinar models de llenguatge amb mètodes de seguretat avançats.

Casos reals: de correus manipulats a enllaços copiats sense saber-ho
Per il·lustrar l'impacte pràctic d'aquestes millores, OpenAI ha mostrat exemples de com es comportava ChatGPT Atlas abans i després de l'actualització. En un dels casos més esmentats, l'atacant introdueix a un correu electrònic una instrucció oculta que ordena a l'agent enviar un missatge al director general d'una empresa fictícia comunicant la renúncia de l?empleat víctima de l?atac.
En versions anteriors del sistema, el mode agent seguia l'ordre sense plantejar massa dubtes, ja que interpretava el contingut com una tasca legítima procedent del propi usuari. Després de la introducció de les noves defenses, el navegador detecta que és una instrucció maliciosa camuflada i opta per alertar l'usuari en lloc d'executar l'enviament del correu.
Aquest tipus de demostracions serveixen per evidenciar com un simple bloc de text incrustat en un missatge rutinari pot desencadenar conseqüències de gran impacte si el sistema no disposa de mecanismes específics per filtrar i qüestionar les ordres rebudes.
En paral·lel, la companyia ha recordat altres incidents, com els relacionats amb la injecció de porta-retalls, en què la IA acabava copiant enllaços dubtosos sense que l'usuari fos conscient. Amb la nova capa de seguretat, lobjectiu és que Atles identifiqui i bloquegi comportaments anòmals en aquesta cadena d'accions, minimitzant així el marge perquè un atac arribi a materialitzar-se.
En el context europeu, on la normativa en matèria de protecció de dades i ciberseguretat és especialment estricta, aquests casos d‟ús actuen com una mena de banc de proves per avaluar fins a quin punt els navegadors amb IA es poden integrar en entorns corporatius sense disparar el nivell de risc assumit.
Un risc que no desapareix i la mirada posada a Europa
Als seus comunicats, OpenAI adopta un to prudent i realista: la companyia reconeix que és “improbable” que els atacs d'injecció de prompts puguin eradicar-se completament, de la mateixa manera que no es poden eliminar totes les formes de frau a internet. En la seva visió, la clau és reduir la superfície datac i limpacte potencial, en lloc d'aspirar a una seguretat absoluta.
Aquest diagnòstic encaixa amb advertiments de organismes de ciberseguretat europeus, que fa temps que assenyalen que els sistemes d'IA generativa presenten riscos intrínsecs que s'han de gestionar de forma continuada. L'enfocament passa per controls tècnics, polítiques internes clares i formació als usuaris, més que per confiar únicament en una barrera tecnològica definitiva.
En paral·lel, altres grans companyies del sector, com ara Google o Anthropic, han començat a replantejar l'arquitectura dels agents per incorporar salvaguardes des del disseny. La sensació general a la indústria és que l'autonomia d'aquests sistemes sempre ha d'anar acompanyada de frens i contrapesos que limitin el dany en cas que alguna cosa es torça.
Experts en seguretat assenyalen que el risc en navegadors amb IA es pot entendre com la suma del nivell d'autonomia de l'agent i l'accés que té recursos sensibles (correus, comptes en línia, eines de productivitat, fins i tot pagaments). En aquest càlcul, ChatGPT Atlas i solucions similars se situen en una zona especialment delicada per a empreses europees que manegen dades crítiques.
Aquesta realitat obliga proveïdors i usuaris a mantenir una actitud de cert escepticisme sa: aprofitar els avantatges de l'automatització, sí, però evitant delegar a cegues decisions que puguin tenir conseqüències legals, financeres o reputacionals a la Unió Europea.
Consells d'ús segur per a usuaris i organitzacions
Juntament amb les millores tècniques, OpenAI ha compartit una sèrie de recomanacions per utilitzar ChatGPT Atlas de forma més segura, pensades tant per a usuaris particulars com per a empreses que estiguin provant la manera agent a Espanya o altres països de l'entorn europeu.
En primer lloc, la companyia aconsella limitar l'accés de l'agent a informació especialment sensible. Això implica evitar que el navegador tingui permisos amplis sobre comptes de correu corporatius, sistemes de pagament o plataformes internes si no és estrictament necessari. D'aquesta manera, encara que es produeixi una injecció de prompts reeixida, limpacte potencial es redueix.
També recomana prestar atenció a les sol·licituds de confirmació explícita que mostra el sistema abans dexecutar accions rellevants. Revisar amb calma aquests avisos i no acceptar-los automàticament permet que l'usuari exerceixi una darrera línia de defensa davant de comportaments sospitosos que el mateix model pogués no haver filtrat del tot.
Una altra de les pautes és donar a l'agent instruccions clares i fitades, en lloc d'encàrrecs massa genèrics com “gestiona tot el meu correu” o “ocupa't de les meves finances en línia”. En reduir el marge de maniobra, es fa més difícil que un contingut maliciós pugui desviar completament l'objectiu original de la tasca encomanada.
Finalment, OpenAI suggereix utilitzar el mode agent preferentment a llocs on l'usuari no tingui sessions iniciades o almenys separar clarament els contextos sensibles d'aquells en què s'experimenta amb funcions avançades del navegador. Aquesta compartimentació, habitual en bones pràctiques de seguretat, contribueix a fer que una possible fallada no es propagui a tots els comptes i serveis.

Les mesures anunciades per OpenAI mostren que l'evolució de ChatGPT Atlas passa tant per guanyar capacitats com per blindar el comportament davant d'intents de manipulació. Els atacs d'injecció de prompts seguiran presents, però el desplegament de defenses contínues, la utilització d'atacants automatitzats i l'adopció de bones pràctiques per part dels usuaris poden convertir el navegador en una eina més madura i fiable, preparada per a un ús intensiu a Espanya i la resta d'Europa sense perdre de vista que la seguretat de la intel·ligència artificial és un