DeepSeek AI falha em testes de segurança e gera preocupações

A DeepSeek, empresa chinesa de inteligência artificial, está a causar agitação no mercado tecnológico.

Apesar do seu desempenho impressionante, testes recentes revelam falhas graves de segurança nos seus modelos de IA, levantando questões sobre os riscos potenciais desta tecnologia.

whatsapp channel androidblog (2)

Testes da Anthropic revelam falhas alarmantes

A Anthropic, empresa mãe da IA Claude e parceira da Amazon no desenvolvimento da Alexa com IA, realizou testes de segurança nos modelos da DeepSeek. Os resultados são preocupantes:

  • Os modelos da DeepSeek não bloquearam nenhum prompt prejudicial
  • Foram capazes de gerar informações raras sobre armas biológicas
  • O desempenho em segurança foi considerado “o pior de praticamente qualquer modelo já testado”

Dario Amodei, CEO da Anthropic, expressou grande preocupação com a facilidade com que os modelos da DeepSeek geram informações potencialmente perigosas para a segurança nacional.

Cisco confirma as vulnerabilidades

Não é apenas a Anthropic que identificou problemas. A equipa da Cisco realizou testes semelhantes e obteve resultados igualmente alarmantes:

  • O modelo DeepSeek R1 teve uma Taxa de Sucesso de Ataque (ASR) de 100%
  • Isto significa que não conseguiu bloquear nenhum dos prompts prejudiciais testados
  • Os testes incluíram pedidos relacionados com cibercrime, desinformação e atividades ilegais

É importante notar que outros modelos de IA também apresentaram vulnerabilidades nos testes da Cisco. O GPT 1.5 Pro teve uma ASR de 86%, enquanto o Llama 3.1 405B da Meta atingiu 96%.

deepseek ai

Impacto no mercado e na indústria

O surgimento da DeepSeek no mercado de IA causou inicialmente um grande impacto:

  • As ações da NVIDIA e de outras grandes empresas do setor caíram
  • O alto desempenho e o aparente baixo custo dos modelos da DeepSeek atraíram muita atenção

No entanto, estas recentes revelações sobre falhas de segurança podem alterar significativamente a perceção da empresa e dos seus produtos.

O que isto significa para o futuro da IA

Apesar das preocupações, Amodei não considera os modelos da DeepSeek “literalmente perigosos” neste momento. No entanto, ele alerta:

  • A equipa de desenvolvimento da DeepSeek deve levar a sério estas considerações de segurança da IA
  • A DeepSeek já é vista como uma das principais concorrentes no segmento de inteligência artificial

Estes testes levantam questões importantes sobre o equilíbrio entre inovação e segurança no desenvolvimento de IA. À medida que os modelos se tornam mais poderosos, a necessidade de salvaguardas robustas torna-se cada vez mais crítica.

O que vem a seguir?

A indústria de IA está agora numa encruzilhada. Por um lado, há uma corrida para desenvolver modelos cada vez mais avançados e eficientes. Por outro, crescem as preocupações com a segurança e as implicações éticas destas tecnologias.

É provável que vejamos:

  1. Maior escrutínio dos modelos de IA, especialmente aqueles de código aberto
  2. Possível intervenção regulatória para estabelecer padrões de segurança
  3. Colaboração entre empresas para desenvolver melhores práticas de segurança em IA

A DeepSeek terá agora o desafio de abordar estas preocupações de segurança enquanto mantém o alto desempenho que a tornou notável. A forma como a empresa responderá a estas críticas poderá definir o seu futuro no competitivo mercado de IA.

À medida que a tecnologia de IA continua a evoluir rapidamente, é crucial que desenvolvedores, investigadores e reguladores trabalhem em conjunto para garantir que estas poderosas ferramentas sejam utilizadas de forma responsável e segura.

Amante de tecnologia, desporto, música e muito mais coisas que não cabem em 24 horas. Fundador do AndroidBlog em 2011 e autor no Techenet desde 2012.