A recente proibição do ChatGPT na Itália pela Agência de Proteção de Dados do país gerou preocupações significativas sobre a segurança e privacidade dos dados pessoais dos usuários da plataforma. A agência italiana apontou falhas na proteção de informações sensíveis, como nome, e-mail e dados bancários dos usuários, o que pode resultar em uma multa de até € 20 milhões caso a OpenAI, empresa responsável pelo ChatGPT, não implemente as atualizações necessárias para garantir a integridade dos dados dos usuários em um prazo de 20 dias.
Além das falhas de segurança, outras questões foram levantadas, como a veracidade das informações fornecidas pelo ChatGPT, a coleta automática de dados e a segurança geral dos dados pessoais. Especialistas sugerem que, ao fornecer informações sensíveis online, medidas preventivas como o uso de senhas únicas e o cadastro de serviços com cartões temporários devem ser adotadas.
Em resposta à proibição, a OpenAI removeu o ChatGPT da Itália e afirmou estar comprometida com a segurança dos dados dos usuários. A empresa está trabalhando para reduzir a quantidade de dados pessoais utilizados no treinamento de seus sistemas de IA e expressou apoio à regulamentação das inteligências artificiais.
A proibição do ChatGPT na Itália pode servir como um precedente para outros países, incentivando verificações e a criação de leis para regular o uso de ferramentas de inteligência artificial com o objetivo de proteger os dados pessoais dos usuários. Ulrich Kelber, o comissário alemão para proteção de dados, afirmou que a Alemanha pode ser o próximo país a seguir os passos da Itália. Autoridades de proteção de dados na França e na Irlanda também já iniciaram diálogos com o regulador de dados italiano para discutir as descobertas sobre o ChatGPT.
Além disso, vários municípios na França iniciaram investigações independentes para avaliar os impactos e implicações do uso do ChatGPT, com Montpellier considerando proibir o uso da ferramenta por funcionários municipais como medida de precaução. O Information Commissioner’s Office, regulador autônomo de dados do Reino Unido, afirmou que, embora incentive os avanços na inteligência artificial, está preparado para tomar medidas contra violações das leis de proteção de dados.
O ChatGPT é um modelo de linguagem de inteligência artificial treinado em uma ampla variedade de dados e é capaz de responder a perguntas e realizar tarefas em linguagem natural. No entanto, as recentes preocupações com a segurança de dados e privacidade levaram a pedidos de bloqueio ou proibição da ferramenta em alguns países da União Europeia. A proibição na Itália sublinha a importância de as empresas de tecnologia serem responsáveis e estarem sempre comprometidas com a segurança dos dados dos usuários.