O sucesso do ChatGPT se traduz nos seus mais de 100 milhões de usuários em menos de quatro meses no ar. Cibercriminosos, no entanto aproveitaram essa tendência para aplicar fraudes com o nome do chatbot baseado em inteligência artificial (IA), mostra estudo da empresa de segurança Eset.
Os estelionatários oferecem extensões de navegador que prometem facilitar acesso ou ampliar as funcionalidades do ChatGPT. Embora parte desses recursos funcione, esses programas roubam dados, como informações de acesso a contas em redes sociais.
Aplicações de inteligência artificial vão de marketing a desenvolvimento de códigos de programação. Banco Goldman Sachs estima que tecnologias similares ao Um exemplo dessa prática apontado pela Eset é o programa “Acesso rápido ao ChatGPT”. O desenvolvedor dessa ferramenta usou os frequentes congestionamentos no site do chatbot, que impedem o acesso de usuários, para promover essa promessa de solução.
Essa extensão entrega o que promete, mas rouba contas em Facebook e outras redes sociais. A extensão ficou disponível por seis dias na loja oficial do Google Chrome durante fevereiro e registrou uma média de 2.000 instalações diárias, até ser removido pelo navegador.
Ainda de acordo com a Eset, páginas no Facebook promoveram conteúdos sobre essa ferramenta e distribuíram links e anúncios que levam a sites que se passam pelo ChatGPT. Os criminosos também procuram enganar as vítimas para que baixem arquivos maliciosos em seus computadores.
“Não seria estranho se encontrássemos mais extensões maliciosas em atividade ou que uma nova apareça em breve. Tenha muito cuidado com o que instala em seu navegador”, diz, em nota, Camilo Gutiérrez Amaya, chefe do laboratório de pesquisa da Eset.
As informações roubadas também podem garantir aos criminosos acesso a contas bancárias e plataformas de pagamentos.
Cibercriminosos também oferecem aplicativos de smartphone falsos, com o nome ChatGPT, para tentar roubar dados. A OpenAI, entretanto, não disponibiliza esse serviço aos usuários até o momento.
A agência policial europeia Europol alertou esta semana que os rápidos avanços na IA generativa poderão ajudar fraudadores online e criminosos cibernéticos, de modo que “grandes modelos de linguagem sombrios podem se tornar um importante modelo de negócio criminoso no futuro”.
A empresa de cibersegurança Sophos, por outro lado, tem estudado formas de usar a tecnologia por trás do ChatGPT, o GPT-3, para detectar fraudes. O modelo de linguagem foi usado nos testes para catalogar atividades maliciosas em bancos de spam e facilitar futuras identificações de risco.
Os atuais programas de segurança ainda geram ruído com alertas falsos, segundo o investigador de ameaças da Sophos Sean Gallagher. “Há muitas notificações e detecções para analisar e as empresas lidam com recursos limitados.”
O modelo mais avançado do GPT-3 oferecido ao público, chamado Davinci, alcançou 88% de precisão ao identificar quais mensagens de spams são maliciosas. No último dia 14, a OpenAI lançou a versão mais nova de sua inteligência artificial, o GPT-4, que entrega respostas mais precisas.
Qualquer mensagem indesejada pode ser caracterizada como spam. São maliciosas aquelas usadas para roubar dados, em golpe conhecido como phishing -uma referência ao verbo pescar em inglês, já que existe uma isca.
Os pesquisadores da Sophos usam uma técnica de treinamento a partir de pequenas amostras de dados chamada few-shot learning (aprendizagem com poucos disparos, em português). Isso reduz a necessidade de coletar um grande volume de dados.
Os modelos depois são aprimorados em um processo de tentativa e erro, à medida que têm mais acesso a dados, chamado aprendizado por repetição.
Fonte: Folhapress