top of page

Gen AI e Cybersecurity o risco dos ataques em LLM

Atualizado: 13 de fev.

"Os ataques LLM (large language model) levam em média apenas 42 segundos para acontecer"


Segundo estudo realizado pela Pillar Security em 2024 utilizando telemetrias de ataques reais de mais de 2000 dispositivos de IA, os vazamentos ocorreram em 90% dos casos, conforme aponta o relatório.


As principais técnicas utilizadas tem sido prompt injections que visam manipular as saídas e o comportamento do modelo por meio da inserção de instruções maliciosas, enquanto o jailbreak busca contornar as políticas de segurança, desbloqueando funções que normalmente não seriam permitidas.


O relatório também destaca quais tem sido as instruções utilizadas, setores mais afetados e traz insights interessantes sobre como reduzir a superficie de ataque.

Fonte: SCWorld e Pillar Security


ree


Comentários


© 2025 Cylense Consultoria em Informática ltda.

bottom of page