Gen AI e Cybersecurity o risco dos ataques em LLM
- Julio Cesar Cunha

- 12 de fev.
- 1 min de leitura
Atualizado: 13 de fev.
"Os ataques LLM (large language model) levam em média apenas 42 segundos para acontecer"
Segundo estudo realizado pela Pillar Security em 2024 utilizando telemetrias de ataques reais de mais de 2000 dispositivos de IA, os vazamentos ocorreram em 90% dos casos, conforme aponta o relatório.
As principais técnicas utilizadas tem sido prompt injections que visam manipular as saídas e o comportamento do modelo por meio da inserção de instruções maliciosas, enquanto o jailbreak busca contornar as políticas de segurança, desbloqueando funções que normalmente não seriam permitidas.
O relatório também destaca quais tem sido as instruções utilizadas, setores mais afetados e traz insights interessantes sobre como reduzir a superficie de ataque.
Fonte: SCWorld e Pillar Security





Comentários