O ChatGPT da OpenAI foi amplamente elogiado - dificilmente há alguma pergunta que não tenhamos visto responder. No entanto, o executor italiano do Regulamento Geral de Proteção de Dados da UE (GDPR) impôs um embargo imediato e temporário ao uso do ChatGPT na Itália.

Isso significa que, se você estiver na Itália, agora não poderá usar o chatbot AI. Aqui está o porquê.

Por que a Itália baniu o ChatGPT?

Em 30 de março de 2023, a Autoridade Italiana de Proteção de Dados, Garante per la Protezione dei Dati Personali (GPDP), anunciado oficialmente uma proibição do ChatGPT, com efeito imediato, que duraria até que o ChatGPT cumprisse o GDPR da UE.

O regulador de dados italiano declarou que O ChatGPT da OpenAI apresentou vários problemas e violou a lei de privacidade da UE. As preocupações de privacidade do GDPD podem ser divididas em cinco áreas principais:

1. Violação das Leis de Privacidade

A principal preocupação do GDPD é que o ChatGPT continue processando dados pessoais em violação de suas leis de privacidade. Embora

instagram viewer
a forma como o ChatGPT funciona é que foi treinado antes da implantação, o chatbot ainda coleta e processa dados dos usuários para fornecer respostas relevantes.

O regulador italiano garante que os controladores de dados sigam as obrigações gerais descritas na lei de privacidade da UE, e o OpenAI fica aquém.

2. Recolha Injustificada de Dados Pessoais

Além da violação de suas leis de privacidade, o GDPD afirma que não há justificativa legal para a coleta massiva e processamento de dados pessoais da OpenAI para treinar os algoritmos do ChatGPT. De acordo com o regulador italiano, as informações do ChatGPT nem sempre correspondem às circunstâncias factuais, portanto, a OpenAI pode usar dados pessoais falsificados.

3. Falta de informações facilmente acessíveis e transparentes

Além disso, o regulador italiano apontou que o OpenAI não informa os usuários cujos dados ele coleta. Esta é outra clara violação das leis de privacidade da UE.

4. Falta de sistemas de verificação de idade

O GDPD anunciou que o ChatGPT expõe informações impróprias para usuários menores de 13 anos porque não possui mecanismos apropriados de detecção de idade. Essa exposição de menores viola o GDPR da UE, que afirma que os indivíduos devem consentir claramente com o processamento de seus dados pessoais. Como indivíduos menores de idade, eles não devem consentir em seu nome.

5. Risco de violação de dados

Ao citar uma violação de dados relatada em 20 de março de 2023, o regulador italiano levantou preocupações sobre o risco de violação de dados do chatbot. anúncio da Europol do potencial dos criminosos que usam o ChatGPT para cometer fraudes e crimes cibernéticos provavelmente fomentou essas preocupações.

As violações de dados também infringem as leis de privacidade do país – todos os processadores de dados devem implementar medidas de segurança apropriadas.

A proibição do ChatGPT na Itália pode ser um modelo para outros países da UE

O GDPR da UE é considerado a lei de privacidade mais rígida do mundo, e a proibição da Itália enfatiza a importância da conformidade de dados na Europa. Foi relatado que a autoridade irlandesa de dados está estudando as ações do GDPD com a intenção de "coordenar" com a UE a respeito da proibição. Da mesma forma, diz-se que o regulador de dados do Reino Unido declarou apoio à IA com a condição de que ela cumpra as leis de proteção de dados.

Embora a proibição do ChatGPT na Itália seja abrangente, ela é considerada temporária. Garante per la Protezione dei Dati Personali solicitou notificação da OpenAI detalhando as ações implementadas para cumprir suas ordens. Se o OpenAI não cumprir, a proibição pode se tornar permanente, como a proibição da Itália no Replika, outro chatbot de IA. A OpenAI também provavelmente pagaria 20 milhões de euros ou 4% de seu faturamento anual global.

A proibição do ChatGPT na Itália pode melhorar a conformidade global de dados de IA ou prejudicar o rápido crescimento do chatbot de IA. De qualquer forma, a proibição terá implicações significativas para o ChatGPT.