Em formação

A equipe de IA da Microsoft lança um bot que pode gerar comentários falsos, a Internet pergunta por quê

A equipe de IA da Microsoft lança um bot que pode gerar comentários falsos, a Internet pergunta por quê


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Estranhamente, uma equipe da Microsoft lançou um trabalho em um bot de IA, chamado DeepCom, que pode ser usado para gerar comentários falsos sobre artigos de notícias.

A equipe diz que esses comentários falsos podem criar engajamento para novos sites e agências de notícias, essencialmente incentivando o uso de contas falsas para gerar um envolvimento real com discussões falsas.

RELACIONADO: UMA NOVA FERRAMENTA DE IA PODE NOS AJUDAR A LUTAR NOVAS FALSAS POR AI.

Precisamos disso?

A resposta curta. Não.

A Internet já está repleta de contas e bots falsos, usados ​​para trollar e desinformar o público em geral.

A pergunta que a equipe de pesquisadores da Microsoft e da Universidade Beihang, na China, parece estar se perguntando, no entanto, é: qual é o problema de usar comentários falsos para estimular e encorajar a discussão em leitores de notícias reais?

Os pesquisadores argumentam que os leitores gostam de postar comentários em artigos de notícias e compartilhar suas opiniões. Para os editores, isso aumenta o envolvimento, então por que não dar um impulso com a tecnologia de IA?

“Esses sistemas podem permitir o serviço de comentários para um site de notícias a partir da inicialização a frio, melhorar a experiência de leitura de artigos de notícias menos comentados e enriquecer as listas de habilidades de outros aplicativos de inteligência artificial, como chatbots”, diz o jornal.

Um artigo de pesquisadores de Pequim apresenta uma nova técnica de aprendizado de máquina cujos principais usos parecem ser trollagem e desinformação. Foi aceito para publicação no EMLNP, um dos 3 principais locais para pesquisa de Processamento de Linguagem Natural. Cool Cool Coolhttps: //t.co/ZOcrhjKiEcpic.twitter.com/Y8U5AjENrh

- Arvind Narayanan (@random_walker) 30 de setembro de 2019

O problema é que o novo artigo, lançado no arXiv, não inclui menções a possíveis usos maliciosos ou aos perigos que a tecnologia pode representar ao ajudar a espalhar notícias falsas. Vários críticos já expressaram suas preocupações.

Redes neurais de leitura de notícias

Como O registro relatórios, DeepCom emprega simultaneamente duas redes neurais: uma rede de leitura e uma rede de geração.

Todas as palavras em um artigo de notícias são codificadas como vetores para a IA analisar. A rede de leitura pega o que ela calcula serem os aspectos mais importantes do artigo (uma pessoa, evento ou tópico), antes que a rede geradora crie um comentário com base nisso.

Os pesquisadores treinaram a DeepCom em um conjunto de dados chinês composto de milhões de comentários humanos postados em artigos de notícias online, bem como um conjunto de dados em inglês de artigos do Yahoo! Notícia.

O exemplo acima mostra partes importantes de um Yahoo! artigo destacado em vermelho (a rede de leitura) e o que o bot opta por comentar em azul (a rede geradora).

Outro bot polêmico

Não é o primeiro contato da Microsoft com a controvérsia do bot. Seu robô de IA "Tay" notoriamente teve que ser retirado três anos atrás, depois que rapidamente aprendeu a tweetar mensagens racistas, homofóbicas e antifeministas após ser treinado em um vasto banco de dados de tweets.

Tay teve que ser retirado do ar após apenas 16 horas devido a sua efusão não solicitada de tweets odiosos. Parece que treinar uma IA em comentaristas online - pessoas que muitas vezes perdem todas as inibições graças ao seu anonimato - não é uma ideia tão boa, afinal.

Parece que mais trabalho é necessário antes que a DeepCom possa realmente incitar o envolvimento ou criar comentários que possam ser usados ​​para perturbar a sociedade em grande escala. Por enquanto, os comentários gerados pelo bot de IA são curtos e simples.

A pesquisa, no entanto, foi aceita no EMNLP-IJCNLP, uma conferência internacional de processamento de linguagem natural, que será realizada em Hong Kong no próximo mês (3 a 7 de novembro).

Nesse ínterim, os pesquisadores do MIT criaram uma ferramenta de IA, chamada Giant Language Model Test Room (GLTR), que pode detectar texto escrito por IA. Eles podem precisar começar a melhorar seu jogo.


Assista o vídeo: Impulso Live Coding - Automatização de tarefas com (Pode 2022).


Comentários:

  1. Manawanui

    impressionante

  2. Akinokora

    Desculpe, isso não ajuda. Espero que eles vão ajudá-lo aqui. Não se desespere.

  3. Kagor

    Que palavras ... super, uma excelente frase

  4. Phuc

    Na minha opinião, é mentira.



Escreve uma mensagem