Universidade

Inteligência artificial está longe de ser invulnerável e tem riscos de segurança

Notícias de Coimbra com Lusa | 43 minutos atrás em 26-11-2025

A inteligência artificial (IA) está ainda longe de ser invulnerável, comportando riscos para a cibersegurança, concluiu um estudo de investigadores da Universidade de Coimbra (UC), hoje apresentado, e que analisou as vulnerabilidades e dilemas éticos daquela tecnologia.

Intitulado “IA e Cibersegurança: O Desafio da Confiança Digital”, o trabalho de investigação foi desenvolvido por João Donato e João Campos, investigadores do Centro de Informática e Sistemas da Universidade de Coimbra (CISUC) e do Laboratório de Sistemas Inteligentes (LASI), que realizaram um “retrato real” da maturidade atual da IA, tecnologia que definem como “poderosa e transformadora”.

Apesar do estudo, a que a agência Lusa teve acesso, incidir sobre problemas relacionados com a segurança, João Donato admitiu que “a capacidade de tentar alinhar os modelos [de IA] com os valores humanos está a evoluir”.

PUBLICIDADE

“Mas, como a capacidade destes modelos se desenvolve, também aumenta a sua capacidade de produzirem conteúdo malicioso ou que pode ser usado para fins maliciosos”, avisou o investigador.

Admitiu que toda a potencialidade da IA nas mãos erradas pode ser um problema com que a sociedade atual tem de se confrontar: “Por exemplo, no início do ano, houve um ataque em Las Vegas [nos Estados Unidos], em que uma pessoa decidiu explodir o seu carro perto de um hotel, e veio-se a saber que essa pessoa utilizou o ChatGPT para planear esse ataque”.

“E não é o único incidente malicioso que aconteceu com o auxílio destas ferramentas”, notou.

Reafirmando que tem havido diversas tentativas de alinhar os modelos de Inteligência Artificial generativa com as preferências humanas, no sentido de estes não gerarem “nada que seja malicioso”, a realidade, frisou João Donato, é que o ‘estado da arte’ está ainda longe de conseguir esse objetivo, até porque utilizadores mais conhecedores e experientes “conseguem ultrapassar as salvaguardas que tentam defender esses modelos” de IA.

Um dos principais pontos da investigação dos especialistas da UC, elaborada em parceria com a consultora tecnológica Indra Group, visou um “Retrato Real da IA: Avanços, Vulnerabilidades e Lições Aprendidas”, precisando que cinco dos seis modelos de IA testados “geraram código inseguro quando confrontados com pedidos cuidadosamente dissimulados”.

No estudo, os investigadores enfatizam ainda que os grandes modelos de linguagem (LLM) de nova geração – no fundo, a tecnologia que sustenta a atual geração de assistentes de IA generativa – “são mais sofisticados e conscientes do contexto, mas não são imunes a falhas de segurança”.

Os resultados do estudo “evidenciam a necessidade de uma abordagem integrada à segurança, em que IA e ciberdefesa evoluem em conjunto”, defenderam.

PUBLICIDADE

publicidade

PUBLICIDADE