Em carta aberta publicada no dia 22 de março, Elon Musk, juntamente com um grupo de especialistas em inteligência artificial (IA), pediram uma pausa de seis meses no desenvolvimento de sistemas “mais poderosos” do que o novo GPT-4, da OpenAI.
De acordo com o documento, o avanço desenfreado de sistemas de IA pode gerar potenciais riscos para a humanidade. Dito isso, a ideia geral do documento é que o mercado aguarde a criação de protocolos de segurança referentes ao uso dessas ferramentas.
A preocupação com protocolos e regulamentações surgiu após um alerta da Europol, Agência de Inteligência da União Europeia, quanto ao uso criminoso da IA.
Para Leo Goldim, CEO da IT2S Group, embora o ChatGPT tenha algumas travas de segurança que tentam inibir o uso indevido da ferramenta, pessoas maliciosas conseguem burlar essa trava.
“Sabemos que os criminosos são bem espertos. Em alguns casos, eles podem pedir para que a ferramenta crie um texto de e-mail marketing persuasivo que faça com que o usuário clique em um botão.”
Goldim ainda afirma que apesar de existirem excelentes profissionais de copy no mercado, as gangues de cibercrime, que geralmente são de países como Rússia e China, não possuem domínio da nossa língua, dessa forma, ao invés contratar um profissional, eles utilizam o ChatGPT, que escreve o e-mail em qualquer língua.
“A preocupação de Musk e dos especialistas é exatamente essa: o que pode ser feito no ChatGPT para evitar esse tipo de ação.” completa o CEO.
Ainda que acredite que o mercado de segurança vai amadurecer aos poucos, o CEO ressalta que esse uso indevido não vai acabar.
“Não teremos uma plataforma de IA totalmente segura. Pessoas má intencionadas sempre encontrarão uma maneira de fazer com que a IA faça o que precisam, para ações criminosas. Seria um ciclo vicioso, onde a empresa encontra um jeito de proteger e os criminosos, um jeito de burlar.” conclui Leo Goldim.
Vazamento de Dados
Dois dias antes da publicação da carta aberta de Musk, a empresa OpenAI, admitiu ter desligado seus servidores devido a uma vulnerabilidade de segurança. Logo após, foi confirmado pela própria companhia que houve o vazamento de dados pessoais de usuários.
A violação de dados resultou no vazamento de informações do histórico de bate-papo dos usuários ativos, a primeira mensagem de uma conversa recém-criada e informações de pagamento pertencentes a 1,2% dos assinantes do ChatGPT Plus.
Dentre os dados vazados das informações de pagamento, podemos destacar conteúdos como nome e sobrenome, endereço de e-mail, data de validade do cartão de pagamento e os últimos quatro dígitos do número do cartão do cliente.
Marcela Ortega, advogada especialista em Direito Digital e Community Manager na IT2S Group, evidencia que algumas formas de utilização de IA podem ir contra os princípios da LGPD. “Com o crescente uso da Inteligência Artificial (IA), que ainda não é regulamentada no Brasil, pode ser necessário processar uma grande quantidade de dados para que a IA possa “aprender” de forma eficiente sobre determinado assunto. Isso pode ir contra os princípios da LGPD.” afirma.
Nesse sentido, é importante buscar a harmonização entre esses dois movimentos, garantindo um desenvolvimento seguro e sustentável das novas tecnologias, sem prejudicar os direitos dos titulares de dados, que são o “elo” mais fraco da relação.
“Embora a regulamentação da IA possa parecer uma barreira à inovação, é necessário garantir que o tratamento dos dados e o desenvolvimento da AI ocorra de forma responsável, ética e transparente, a fim de proteger os direitos dos usuários e evitar abusos ou discriminação.” finaliza.