As investigações desencadeadas por autoridades reguladoras de diversos Estados-Membro para analisar o ChatGPT ainda estão em curso
De acordo com uma equipa do órgão de defesa da privacidade da União Europeia (UE), o empenho da OpenAI para reduzir o número de resultados factualmente falsos do ChatGPT não tem sido suficiente para cumprir com a política de dados da UE. “Apesar de as medidas que foram tomadas para cumprir o princípio da transparência serem vantajosas para evitar interpretações erradas dos resultados do ChatGPT, não são suficientes para respeitar o critério da precisão de dados”, lê-se num relatório disponibilizado pela equipa no seu site. Segundo indica a Reuters, no ano passado, as autoridades europeias de proteção de dados formaram uma equipa dedicada para lidar com questões relacionadas com o ChatGPT, depois de as entidades reguladoras nacionais terem levantado algumas preocupações sobre o serviço de inteligência artificial largamente utilizado. Segundo o relatório, algumas investigações iniciadas pelas organizações nacionais de proteção de alguns Estados-Membro ainda estão a decorrer, pelo que os resultados completos não podem ser anunciados. Desta forma, os resultados apresentados devem ser entendidos como “pontos comuns” para as respetivas autoridades nacionais. Uma das principais regras de proteção de dados da UE é a exatidão dos dados. “Devido à natureza probabilística do sistema, a metodologia de formação atual resulta num modelo que também pode gerar informações tendenciosas ou inventadas”, constata-se no relatório. “Para além do mais, os resultados gerados pelo ChatGPT são passíveis de serem tomados como factos exatos pelos utilizadores finais, nomeadamente dados relativos a indivíduos, sem ter em conta a veracidade desses factos”. |