Originalmente públicado no UOL Tilt de 16/01/2023
CNET, abreviação de "Computer Network", é um site de mídia dos Estados Unidos com um quadro de funcionários entre 500 e mil humanas. Suas resenhas, notícias, artigos, blogs, podcasts e vídeos sobre tecnologia e eletrônicos de consumo são vistos mensalmente por mais de 50 milhões de pessoas.
Pois desde novembro de 2022, ao lado de textos de seus repórteres e colunistas, o CNET vem usando inteligência artificial para criar artigos. O canal escolhido foi o CNET Money Staff (que é pago), voltado ao universo das finanças.
IA transformou nossas palavras em imagens. Funcionou, menos com Bolsonaro
'Não sou católico': o que diz um Jesus criado por inteligência artificial?
Como um post no Instagram derrubou a carreira de um rapper criado por IA
O mais recente, de 3 de janeiro, o texto apresenta as vantagens de saldar as despesas feitas com cartão de crédito antes do vencimento. Ao final, uma advertência comum em publicações que se dão ao respeito:
"O conteúdo editorial desta página é baseado exclusivamente em avaliações objetivas e independentes de nossos escritores e não é influenciado por publicidade ou parcerias. Não foi fornecido ou encomendado por terceiros. No entanto, podemos receber uma compensação quando você clicar em links para produtos ou serviços oferecidos por nossos parceiros".
Ali não fica claro o uso de IA. Só em outro ponto do site é que a agência informa que os conteúdos produzidos por seu "Money Staff" são, na verdade, gerados por tecnologia de automação. Em português claro, são obra do nosso já conhecido chatbot GPT-3, da OpenAI, cofundada por Elon Musk, e que vai receber agora uma bolada da Microsoft para se tornar a mais atraente startup do mundo.
O CNET não aposta todas as suas fichas no GPT-3. Tanto que um de seus repórteres, Jackson Ryan, chegou a publicar um artigo no site sobre o chatbot e vaticinou:
"ChatGPT é uma IA impressionante, mas os empregos humanos estão seguros (por enquanto) (...) Definitivamente não pode fazer o trabalho de um jornalista. Dizer isso diminui o ato do próprio jornalismo."
Decidimos testar
Os colunistas resolveram conferir a previsão com uma das fontes disponíveis. Não nosso colega Ryan, mas com o GPT-3, propriamente. Apresentamos o argumento de Ryan e pedimos que o chatbot criasse um pequeno artigo assumindo o papel de um repórter brasileiro para justificar o uso do GPT-3 para produzir conteúdo.
A resposta do nosso "entrevistado":
"Como repórter brasileiro, vejo um grande potencial no uso do GPT-3 para produção de conteúdo. A ferramenta de inteligência artificial é capaz de aprender com grandes conjuntos de dados de texto e pode gerar texto com som humano para uma variedade de propósitos.
O uso do GPT-3 pode ajudar a acelerar o processo de redação de notícias, permitindo que os jornalistas dediquem mais tempo a outros aspectos da história, como verificação de fatos e pesquisas aprofundadas. Também pode ser usado para gerar ideias para histórias e ajudar os repórteres a restringir suas histórias aos elementos mais importantes.
Além disso, o GPT-3 pode ajudar a reduzir a carga de tarefas mundanas, como resumir notícias, limpar artigos e produzir manchetes. Isso pode ajudar a liberar mais tempo para os repórteres se concentrarem no jornalismo investigativo e entenderem melhor o contexto das notícias que estão cobrindo.
No geral, o uso do GPT-3 pode tornar o processo de produção de notícias mais eficiente e permitir que os jornalistas se concentrem nos aspectos da história que exigem mais experiência humana. Embora seja verdade que o GPT-3 não pode fazer o trabalho de um jornalista, certamente pode ser usado de forma a complementar e aprimorar o trabalho dos jornalistas."
Em seguida, nós perguntamos se existem riscos em usar o GPT-3 nessa atividade. E se é necessário submeter o conteúdo a um fact check (checagem de fatos, em inglês) humano. A resposta revela prudência e bom senso, digamos:
"Sim, há riscos em usar o GPT-3 para produzir conteúdo. Como acontece com qualquer tecnologia, existe a possibilidade de erros, imprecisões ou viés no texto gerado. Portanto, é importante que os jornalistas revisem o texto gerado quanto à precisão e viés antes de publicá-lo.
Também é importante verificar o conteúdo gerado pelo GPT-3 e garantir que ele seja preciso e imparcial. Isso pode ser feito enviando o conteúdo para um verificador de fatos humano ou verificando as informações com outras fontes. Isso é especialmente importante quando o GPT-3 está sendo usado para gerar ideias ou manchetes, pois é importante garantir que as informações sejam corretas e imparciais."
E, no futuro, haverá outras possibilidades de usar o GPT-3 no jornalismo?
"No futuro, o GPT-3 poderá ser usado para uma variedade de tarefas jornalísticas. Por exemplo, pode ser usado para gerar histórias a partir de dados brutos, ajudando os jornalistas a produzir histórias baseadas em dados de forma rápida e fácil. Também pode ser usado para gerar ideias para histórias, ajudando os jornalistas a encontrar ângulos e histórias interessantes para seguir.
O GPT-3 também pode ser usado para resumir histórias, ajudando os jornalistas a produzir rapidamente resumos e manchetes para suas histórias. Também pode ser usado para gerar citações de fontes, ajudando os jornalistas a gerar citações de forma rápida e fácil para suas matérias. Por fim, o GPT-3 pode ser usado para gerar entrevistas, ajudando os jornalistas a gerar entrevistas com fontes de maneira rápida e fácil".
Afinal, entramos no cerne da questão apresentada por Ryan: o GPT-3 acha que os jornalistas devem temer perder seus empregos, quando isso acontecer? O chatbot ficou no meio do caminho em sua resposta:
"Sempre existe a possibilidade de os jornalistas temerem perder seus empregos quando o GPT-3 é usado para várias tarefas no jornalismo. No entanto, é importante lembrar que o GPT-3 não pretende substituir os jornalistas, mas sim auxiliá-los em seu trabalho, tornando algumas tarefas mais eficientes e liberando tempo para outras tarefas que exigem mais expertise humana.
O GPT-3 também tem o potencial de criar novas oportunidades para jornalistas, como a criação de histórias baseadas em dados, geração rápida de resumos e manchetes e geração de citações e entrevistas. Portanto, embora haja potencial para alguma interrupção, o GPT-3 deve, em última análise, ajudar a aprimorar o trabalho dos jornalistas e criar novas oportunidades para eles."
O que esperar no futuro? Mais e mais usos
O texto acima, os diversos artigos da CNET e cada vez mais conteúdo publicado na rede deixam claro que as novas inteligências artificiais generativas vieram para ficar e que a confusão está apenas começando.
Essas ferramentas vão se tornar cada vez mais comuns e integradas com o fluxo de produção de todo criador de conteúdo.
Vale lembrar que a OpenAI tem já uma extensa parceria com a Microsoft, dona, entre outras coisas, do Microsoft Word, software que já virou sinônimo de editor de texto.
Imagine, então, se na próxima versão a empresa decidisse integrar ali o GPT-3 e em todo texto que você escrevesse? O sistema já completasse com sugestões de frases e parágrafos inteiros?
Ou em um formato no qual você desse cinco frases-chaves e ele criasse um texto de uma página inteira para posterior edição?
Por fim, existe uma questão ética em não revelar que os textos foram produzidos por inteligência artificial? O disclaimer original da CNET coloca o GPT-3 como parte da equipe editorial e, depois que a história foi divulgada, a empresa o modificou para dar clareza ao fato de que o artigo foi escrito com assistência de uma IA.
Ao mesmo tempo, em qualquer livraria, existem centenas de livros publicados escritos por ghostwriters, pessoas que são pagas para escrever em nome de outros e isso, embora gere debates em alguns círculos, nunca foi um grande problema social.
O fato é que essas mudanças todas estão chegando com velocidade impressionante. E seguimos cobrindo os avanços aqui nesta coluna.
Yorumlar