Coleções

GPT2 da OpenAI agora escreve resumos de artigos científicos

GPT2 da OpenAI agora escreve resumos de artigos científicos


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

A OpenAI criou o GPT2 no início deste ano - que é um "modelo de linguagem não supervisionado em grande escala que gera parágrafos de texto coerentes", de acordo com a página do blog da OpenAI. Esta incrível rede neural de transformador gera parágrafos inteiros, uma palavra de cada vez.

Em uma reviravolta divertida e intrigante, o Dr. James Howard, estagiário de cardiologia no Imperial College de Londres, Reino Unido, decidiu testar as habilidades científicas do GPT2.

O Dr. Howard decidiu criar o GPT2 com títulos científicos aleatórios e observou enquanto ele escrevia resumos bem na frente de seus olhos. Dr. Howard então compartilhou suas respostas via Twitter.

RELACIONADOS: A OPEPAI ACABOU DE LANÇAR UM ALGORITMO DE ESCRITA DE NOTÍCIAS FALSAS MAIS ASSUSTADOR

Aqui está o que o GPT2 foi capaz de criar

Dr. Howard treinou novamente o GPT2 no banco de dados Pubmed / MEDLINE - um banco de dados científico com mais 30 milhões citações da literatura biomédica. Isso significa que quando o Dr. Howard forneceu seus títulos científicos, a rede neural do transformador foi capaz de responder em termos científicos.

Demorou o Dr. Howard 24 horas para treinar novamente o GPT2 dessa maneira.

O que o Dr. Howard, inacreditavelmente, recebeu em resposta foram resumos médicos concisos, bem estruturados e instigantes. Abaixo estão alguns dos resumos para sua leitura.

Uma palavra de advertência do Dr. Howard:

Eu criei um monstro. Treinei novamente a rede neural do transformador GPT2 da @ OpenAI no banco de dados Pubmed / MEDLINE, de modo que, se eu der o título de um artigo, ele solta um resumo para mim. Eu não ensinei como estruturar um resumo, quanto tempo ele é, ou qualquer outra linguagem.

- James Howard (@DrJHoward) 26 de outubro de 2019

Em cada uma das capturas de tela abaixo, a linha superior mostra o título que forneci à rede e tudo o que está abaixo disso é o trabalho da rede. Leva cerca de 30 segundos para gerar um resumo, embora tenha levado mais de 24 horas de treinamento da rede para chegar a esse nível.

- James Howard (@DrJHoward) 26 de outubro de 2019

O primeiro resumo:

Em primeiro lugar, tentei dar-lhe o título de um ensaio clínico aleatório inventado. Parece um _bit_ irracional comparar a denervação renal com o apixaban para hipertensão. Fasciantemente, ele ofereceu os dados de registro do ensaio clínico no final do resumo. pic.twitter.com/Z9794BpgdJ

- James Howard (@DrJHoward) 26 de outubro de 2019

O segundo:

Em seguida, dei-lhe um título para uma meta-análise. Obviamente, o título que escolhi é ridículo, mas eu queria ver o que ele fazia. Surpreendentemente, ele decidiu colocar uma estratégia de busca na seção de métodos. Ele também oferece riscos relativos, embora a escolha da escala de Rankin modificada ... pic.twitter.com/Vjp6fhlFW2

- James Howard (@DrJHoward) 26 de outubro de 2019

O terceiro:

Pensei em tentar algo com o qual tenho particularmente pouca experiência: análise de custo-efetividade. Embora a conclusão possa estar correta, não tenho certeza se ela transmite adequadamente as descobertas do estudo ... Gosto de como a significância corresponde aos valores de p (> vs <0,05). pic.twitter.com/5rXlTUh8Hr

- James Howard (@DrJHoward) 26 de outubro de 2019

GPT2 continua dando:

Finalmente, pensei em tentar algo incendiário. Acontece que a prevalência do uso de narcóticos entre cardiologistas adultos é de 71%! E deve ser verdade, eles usaram autovetores! Desculpem a calúnia, meus colegas sul-americanos. pic.twitter.com/j700yVryve

- James Howard (@DrJHoward) 26 de outubro de 2019

É incrível - talvez um pouco preocupante - o que o transformador da OpenAI foi capaz de fazer e como ele pôde ser treinado novamente em tão pouco tempo.

Espero que você tenha achado isso interessante. Fico feliz em fornecer mais exemplos se as pessoas quiserem me dar títulos. Posso tentar fazer com que a rede neural funcione online como fiz para os marcapassos (https://t.co/CMnspA0N8R) - embora os requisitos de hardware para isso sejam muito maiores!

- James Howard (@DrJHoward) 26 de outubro de 2019

O Dr. Howard foi muito aberto e transparente sobre como essa intrigante troca aconteceu, e vocês podem tentar por si mesmos aqui, onde vocês mesmos 'conversam' com o transformador.


Assista o vídeo: OpenAIs New Language Generator: GPT-3. This AI Generates Code, Websites, Songs u0026 More From Words (Pode 2022).