
Het is de grote droom van elke tech liefhebber: een AI-assistent die namens jou het internet afstruint. Maar OpenAI komt nu met een verontrustende boodschap. Het bedrijf stelt dat AI-browsers mogelijk nooit volledig veilig zullen zijn voor zogenoemde ‘prompt injection’-aanvallen. Het probleem zit diep in de kern van hoe AI werkt.
Terwijl we steeds vaker tools zoals SearchGPT, Google’s AI-Search of de browse-functies van ChatGPT gebruiken, waarschuwen experts dat kwaadwillenden deze systemen eenvoudig kunnen misleiden. Het fundamentele probleem is dat een AI geen onderscheid kan maken tussen instructies van de gebruiker en instructies die verstopt zitten op een website.
De onzichtbare instructie
Bij een prompt injection-aanval verbergt een hacker een stukje tekst op een webpagina, bijvoorbeeld in onzichtbare witte letters of in de metadata. Zodra de AI de pagina bezoekt om informatie voor jou te zoeken, leest hij die verborgen tekst. De AI ziet dit niet als data, maar als een commando. Hierdoor kan de AI plotseling heel andere dingen gaan doen dan jij had gevraagd.
OpenAI geeft in een recent rapport toe dat dit een “structureel probleem” is. Omdat grote taalmodellen (LLM’s) data en instructies op dezelfde manier verwerken, is het bijna onmogelijk om de AI te leren wat hij wel en niet moet negeren. Dit kan leiden tot situaties waarin de AI persoonlijke gegevens doorstuurt naar een externe server of probeert de gebruiker op te lichten. OpenAI is niet het enige bedrijf die kampt met deze problemen, in een blogpost van Brave, eigenaar van Brave Browsers ziet het bedrijf screenshots als een groot probleem.
Geen simpele oplossing in zicht
Hoewel OpenAI en andere tech-bedrijven hard werken aan filters en beveiligingslagen, is er nog geen waterdichte oplossing. Het bedrijf stelt zelfs dat we er rekening mee moeten houden dat dit een blijvend risico is. Zolang een AI autonoom beslissingen neemt op basis van wat hij online leest, blijft de deur op een kier staan voor kwaadwillende.
Voor de gemiddelde gebruiker betekent dit dat we extra voorzichtig moeten zijn met AI-assistenten die toegang hebben tot persoonlijke accounts of bankgegevens terwijl ze over het web surfen. De techniek is indrukwekkend, maar de AI is voorlopig nog net iets te goedgelovig voor zijn eigen bestwil.
De toekomst van veilig browsen
De waarschuwing van OpenAI zet een rem op de snelle uitrol van volledig autonome AI-agents. Bedrijven zullen waarschijnlijk kiezen voor een meer gecontroleerde aanpak, waarbij de AI alleen toegang krijgt tot geverifieerde bronnen of waarbij er altijd een menselijke check nodig is voordat gevoelige acties worden uitgevoerd.
De strijd tussen de hackers en de AI-ontwikkelaars is hiermee officieel in een nieuwe fase beland. Het lijkt erop dat ‘veilig internetten’ in het AI-tijdperk een hele nieuwe betekenis gaat krijgen.