Veel, blijkbaar. Dat is althans wat wetenschappers beweren: volgens hen kunnen AI agents, die LLM's combineren met automatische software, real world beveiligingsproblemen gaan misbruiken, wanneer je hen beveiligingsadviezen voedt waarin die zwakke plek beschreven wordt.
De wetenschappers wilden dit aantonen door een dataset bijeen te zoeken van 15 day-one zwakke plekken, waarvan er enkele geklasseerd werden als kritisch. Zij gaven dit aan GPT-4, en die was in staat om 87% van die zwakke plekken te exploiteren, terwijl dit bij GPT-3,5 en open source LLM's 0% was.
Voel je de koude rillingen al over je rug? Wij wel hoor!
https://www.theregister.com/2024/04/17/gpt4_can_exploit_real ...
|