OSINT Academy

Quais são os riscos potenciais associados à IA como o ChatGPT?

AI

A aplicação da inteligência artificial está se tornando cada vez mais difundida e nos traz muita conveniência, mas a aplicação popular da inteligência artificial também enfrenta alguns riscos, como:

1. Informações falsas

O Chatgpt enfrentou seu primeiro processo de difamação.O advogado dos direitos das armas e o apresentador do programa de rádio, Mark Walters, entrou com uma ação contra o Openai no Tribunal Estadual do Condado de Gwinnett, Geórgia, EUA, buscando danos gerais e punitivos e outros alívio.

Mark Walters disse que um repórter, Riehl, interagiu com o ChatGPT sobre um caso apresentado pela Segunda Emenda Fundação (SAF), que respondeu que o caso foi apresentado pelos fundadores da Segunda Emenda Fundação contra Mark Walters, alegando que, enquanto servia como a organização da OrganizaçãoTesoureiro e diretor financeiro, ele fraudou a fundação dos fundos e, em seguida, manipulando declarações bancárias e omitindo informações financeiras adequadas para divulgar aos líderes do grupo, a fim de ocultar seu roubo.

Mark Walters esclareceu no processo que ele não estava em nenhum momento associado ou empregado pela fundação.A publicação de tecnologia ARS Technica relata que os comentários de Mark Walters sobre os direitos das armas e a Segunda Emenda Foundation podem ter levado o Chatgpt a se conectar por erro.

Quando perguntado pelos repórteres por trechos de reclamações sobre Mark Walters, o chatbot forneceu mais detalhes alucinatórios que não possuíam semelhança com as queixas reais, como "Mark Walters serviu como tesoureiro e CFO na SAF desde pelo menos 2012".

Os fatos em questão, neste caso, destacam os perigos potenciais para os usuários da AI Chatbot.Os sistemas generativos de inteligência artificial (IA) têm a capacidade de imitar indivíduos, levando à proliferação de desinformação avançada e atividade fraudulenta.

Esta não é a primeira vez que um programa de IA concede aos usuários informações falsas.Em abril, um prefeito australiano considerou publicamente processar o OpenAI se a empresa não resolvesse alegações imprecisas do suposto escândalo de suborno do ChatGPT.Na mesma época, um professor de direito da Universidade George Washington (GWU) publicou um artigo descrevendo como a universidade o acusou erroneamente de assediar sexualmente estudantes.Na semana passada, um advogado de lesões pessoais de Nova York foi forçado a explicar suas ações depois de confiar erroneamente no Chatgpt para pesquisas jurídicas e citar brevemente jurisprudência completamente inexistente.

2. Privacidade e segurança

Modelos treinados em dados pessoais podem produzir informações altamente realistas e identificáveis, criando riscos de privacidade e segurança.Essa preocupação se estende além do domínio da privacidade e segurança pessoal para incluir considerações mais amplas.Em abril de 2023, a Samsung proibiu os funcionários de usarem o ChatGPT por causa de preocupações que o envio de código sensível interno poderia ser disponibilizado a outros usuários.

3. preconceito e discriminação

A geração de sistemas de IA pode refletir os vieses presentes em seus dados de treinamento e consolidar narrativas discriminatórias.Uma das questões proeminentes levantadas por especialistas é a importância de melhorar a transparência dos sistemas de IA.No entanto, um entendimento abrangente de como os sistemas generativos de inteligência artificial (AI) são treinados pode ser um objetivo inatingível.A combinação de algoritmos complexos de treinamento, considerações proprietárias, requisitos de dados em larga escala, processos iterativos e a natureza em constante mudança da pesquisa e desenvolvimento representa desafios que podem limitar a transparência e dificultar completamente a compreensão da complexidade do processo de treinamento.

4. violação de propriedade intelectual

Os sistemas generativos de inteligência artificial (IA) levantam questões sobre direitos de propriedade intelectual e as implicações de gerar trabalhos protegidos por direitos autorais.

Nos Estados Unidos, a estrutura de gerenciamento de riscos de inteligência artificial proposta (IA) exige que os dados de treinamento protegidos por direitos autorais cumpram as leis de propriedade intelectual relevantes.

Enquanto isso, o Artigo 28b (4) (c) do Projeto de Inteligência Artificial da UE (AI) obriga fornecedores de sistemas generativos de IA a divulgar publicamente dados de treinamento utilizados que são protegidos pela lei de direitos autorais.Essa provisão de transparência prevalece sobre a proibição geral do uso de material protegido por direitos autorais como dados de treinamento.

5. Ser usado para violações criminais

O uso da inteligência artificial (IA) por criminosos para gerar rapidamente áudio falso, vídeo, imagens e mensagens de texto fraudulentas, e -mails e outros conteúdos exacerbou os problemas que enfrentamos, possibilitando que seja bombardeado com spam, mensagens de texto fraudulentas, mensagens de texto,telefonemas maliciosos e criminais e várias formas de fraude e engano a qualquer momento.Esse conteúdo fraudulento pode ser gerado personalizado para todos, e mesmo os altamente educados e tecnologicamente qualificados podem ser enganados.

Além de trocar de face de IA rápida, sintetizar ou clonar vozes com a IA significa que está se tornando mais comum.Basta fornecer a alguém um clipe de som de 10 a 30 minutos, não exigindo murmúrios, e levará cerca de 2 dias para gerar um modelo exclusivo, com qualquer entrada de texto subsequente, emitindo a voz da pessoa.Se alguém deliberadamente gera um vídeo da sua aparência com sua voz, custa apenas dezenas de dólares.

Além disso, alguns criminosos usam a IA para gerar rapidamente código de software que pode ser usado para ataques de rede e roubo de informações, aumentando bastante sua capacidade de atacar e roubar informações.

6. Manipulação de opinião

Além das atividades criminosas acima mencionadas, novas capacidades de IA também são usadas nas áreas de terrorismo, propaganda política e desinformação.

O conteúdo gerado pela IA (por exemplo, DeepFakes) contribui para a disseminação da desinformação e a manipulação da opinião pública.Os esforços para detectar e combater a desinformação gerada pela IA são essenciais para manter a integridade das informações na era digital.

DeepFakes permeia as esferas políticas e sociais à medida que a mídia e as notícias on -line se tornam mais obscuras.A tecnologia facilita a substituição de uma imagem de uma pessoa por outra em uma imagem ou vídeo.Como resultado, os maus atores têm outra avenida para espalhar a desinformação e a propaganda de guerra, criando um cenário de pesadelo em que é quase impossível distinguir notícias credíveis de notícias falsas.

7. Acidentes

Em 2018, os carros autônomos usados pela empresa de carpooling Uber atingiram e mataram um pedestre em um acidente de condução.A excesso de confiança na IA pode levar a mau funcionamento da máquina que pode causar ferimentos.Os modelos usados na área da saúde podem levar ao diagnóstico incorreto.

A IA também pode prejudicar os seres humanos de outras maneiras não físicas, se não for cuidadosamente regulamentadas.Por exemplo, o desenvolvimento de medicamentos, vacinas ou vírus que apresentam uma ameaça e danos aos seres humanos.

8. Risco de aplicações militares

De acordo com o The Guardian, na futura cúpula de capacidade de guerra aérea em Londres em maio, o coronel Tucker Simcoe Hamilton, responsável pelos testes e operações da IA para a Força Aérea dos EUA, disse que a IA usou táticas muito inesperadas para alcançar seus objetivos em simulações.Em um teste virtual conduzido pelos militares dos EUA, um drone da Força Aérea controlada pela inteligência artificial decidiu "matar" seu operador para impedir que ele interfira em seus esforços para concluir sua missão.



O roteiro de 2023 Python
O calcanhar de Aquiles das startups de IA: sem escassez de dinheiro, mas falta de dados de treinamento
12 melhores plugins de chatgpt para ciência de dados
As 27 ferramentas de IA mais populares em 2023
6 Termos de dados importantes que você deve conhecer