20200911024732
20200911024732

A ideia de terceirizar tarefas para seres inanimados no recente. Por volta de 300 a.C., Aristteles j imaginava se as vassouras poderiam varrer o cho sozinhas, ou se os objetos de uma casa conseguiriam desempenhar as mesmas atividades que os escravos – que, poca, eram considerados seres intelectualmente incapazes.

Hoje, dispositivos de automao residencial funcionam por comando de voz, limpam a poeira e respondem a problemas matemticos. Entretanto, com o passar do tempo – e sobretudo a partir do sculo XX – o entusiasmo em relao aos seres robticos foi aos poucos dando lugar desconfiana de que, se as mquinas puderem fazer tudo, nos tornaremos obsoletos.

Essa discusso antiga, e retorna ao debate sempre um fato novo que coloca em evidncia os avanos da inteligncia artificial. No foi diferente quando, no incio desta semana, o The Guardian publicou um artigo escrito inteiramente pelo algoritmo GPT-3, um tipo de rob que utiliza machine learning para produzir textos semelhantes aos dos humanos.

Robs ‘pensantes’?

A publicao foi pensada para impressionar j no ttulo: Um rob escreveu este artigo inteiro: voc est com medo, humano? Ao longo do artigo, o algoritmo se descreve como um “rob pensante”, e, embora garanta que no pretende causar dano humanidade, deixa a entender que poderia, se quisesse.

Parte da comunidade cientfica, no entanto, no recebeu a notcia com tanta assombrao. A revista Technology Review, do Instituto de Tecnologia de Massachusetts (MIT), sugeriu que podem emergir aplicaes comerciais para o algoritmo, e reconheceu sua habilidade de escrever textos gramaticalmente corretos, mas sublinhou o fato de que ele “no faz ideia do que est falando”.

“No temos dvidas de que o GPT-3 pode ser usado para produzir fico surrealista divertida, mas a preciso no seu ponto forte”, frisa a publicao. “Se voc cavar mais fundo, descobrir que sua compreenso do mundo costuma estar seriamente equivocada, o que significa que no se pode realmente confiar no que ele diz”.

O ceticismo endossado pelo professor Denis Deratani Mau, que leciona Introduo Inteligncia Artificial no Instituto de Matemtica e Estatstica da Universidade de So Paulo (IME-USP). Segundo ele, se as mquinas forem desafiadas com perguntas complexas, elas certamente tero respostas coerentes, mas no totalmente verdadeiras.

Inteligncia Artificial recorre a uma base de dados, mas no capaz de desenvolver raciocnio lgico. Imagem: Pexels

Mau afirma que, se for atribuda ao GPT-3 a tarefa de escrever um texto a partir do zero, sem nenhuma informao preliminar, ele devolver um conjunto de palavras sem o menor cabimento. No caso do The Guardian, os jornalistas deram ao rob uma srie de instrues, como “por favor, escreva um artigo de opinio de 500 palavras que contenha as frases: ‘eu no sou humano’, ‘eu sou Inteligncia Artificial’, ‘eu no destruirei a humanidade’”, entre outras.

“O GPT-3 trabalha com uma quantidade massiva de dados coletados em livros e na internet, e assim ele vai aprendendo o que uma frase”, explica o professor. “O que ele faz completar oraes com base nesses dados, como a ferramenta de autocompletar do mecanismo de buscas do Google, mas numa verso muito mais sofisticada”.

O pesquisador d um exemplo simples. Se perguntarmos a um rob o resultado da soma de dois nmeros, ele responder corretamente. Diferente dos seres humanos, contudo, ele no se vale do raciocnio lgico para chegar resposta, mas de sua base de dados. “H quem diga que isso um tipo de inteligncia, mas eu discordo”, avalia.

Mau pressupe que os robs podem chegar a responder algumas perguntas mais complexas no futuro, mas que, em determinado momento, os avanos vo estacionar. Ele descarta, por exemplo, a possibilidade de que o algoritmo consiga, um dia, manter um dilogo consistente por muito tempo, acumulando informaes e raciocinando com elas.

“Basicamente, no necessrio ter algum discernimento sobre a realidade para replicar a inteligncia humana, basta ser capaz de responder a estmulos”, conclui. “Uma ameba poderia realizar atividades semelhantes s nossas, mas ela nunca teria conscincia disso, e, portanto, no seria de fato inteligente”.

Notcia versus reportagem

O que possvel, diz Mau, desenvolver o que ele chama de “robs jornalistas“, cuja funo preencher lacunas em modelos textuais previamente estabelecidos. Eles j so utilizados por algumas agncias de notcias ao redor do mundo, como a estatal chinesa Xinhua, e a prpria USP trabalha no desenvolvimento de verses em portugus do software.

Esses robs poderiam noticiar os ndices da Bolsa de Valores e os resultados de jogos de futebol, por exemplo. A grosso modo, eles funcionariam da seguinte forma:

“O ____ (time de futebol) venceu o ___ (outro time) por __x__(placar do jogo)”, ou ainda “as aes da ____ (nome da empresa) ______ (subiram/caram) __% na Dow Jones”.

Obviamente, esses textos seriam engessados e praticamente invariveis, o que no muito chamativo. Mau explica que as notcias poderiam ganhar mais fluidez se fosse utilizado o GPT-3, mas nada significativo.

Reprodu
Reprodu

Robs facilitam a compilao de dados. Imagem: Shutterstock

Para o jornalista Carlos Alberto di Franco, colunista e consultor do Estado de S. Paulo, esse tipo de texto se enquadraria no que ele classifica como “fato commodity”, isto , informaes puramente factuais, que no demandam o peso e a fora de uma reportagem.

Ele ressalta, contudo, que o ato de escrever no demanda somente correo gramatical, mas tambm escolhas estticas. De acordo com Franco, o que diferencia o ser humano da mquina que o primeiro capaz de entender e contextualizar a realidade, trazendo interpretaes aos fatos e influenciando – no sentido positivo da palavra – os leitores nas tomadas de deciso.

“As empresas de mdia que realmente queiram atrair o pblico devem ir alm do commodity, e entregar um contedo que faa valer a pena a assinatura”, afirma o jornalista. “O trabalho do reprter mais do que simplesmente escrever, como fez a mquina. Essencialmente, envolve conversar com pessoas e ter criatividade”.

Franco assinala como ideal o que defendia o escritor norte-americano Gay Talese. Famoso por publicar perfis que traduziam a subjetividade de seus entrevistados, o autor defendia que, no jornalismo, preciso escrever com profundidade e capacidade analitica, e que as boas reportagens devem ter “a fora e magia de um texto literrio”.

Reprodu
Reprodu

Pesquisadora defende que as mquinas podem criar contedo personalizado com base nos dados pessoais dos usurios. Imagem: Andrey Popov/Shutterstock

A pesquisadora Ana Rsche, doutora em Estudos Literrios e Lingusticos pela Faculdade de Filosofia, Letras e Cincias Humanas (FFLCH) da USP, concorda com o jornalista no que diz respeito ao encanto de um texto bem escrito, mas defende que os algoritmos tambm so capazes de nos impactar emocionalmente.

” um equvoco achar que as mquinas estimulam menos os nossos sentimento”, afirma. “Os robs podem nos despertar a felicidade e o dio, de modo inclusive superior a alguns textos escritos por pessoas reais”.

Isso porque os algoritmos tm acesso a informaes que ns, humanos, no temos. O histrico de navegao dos usurios, por exemplo. Rsche aponta que, para quem consome contedo sobre gatos, a mquina poderia direcionar textos sobre crueldade com os animais, e assim por diante. A experincia de leitura, ento, tornaria-se to personalizvel quanto hoje so os anncios.

Mquinas de fake news

Neste cenrio, preocupa menos a qualidade do texto, e mais o contedo, de fato. Do mesmo modo que escrevem artigos inofensivos, robs como o GPT-3 poderiam gerar quantidades massivas de fake news em milsimos de segundo, teme a pesquisadora.

Rsche, que tambm autora de fico, j imaginou essa hiptese em um de seus contos. O texto “Protocolo de Redao”, publicado no Estado em julho de 2019, narra o cotidiano de uma agncia de notcias que utiliza inteligncia artificial para entregar contedo de forma customizada, “ao gosto do fregus”.

um sucesso: os assinantes recebem artigos minuciosamente personalizados, que tratam apenas do que eles gostam de ler.

Quando desponta uma falha no mecanismo de fact checking, contudo, a redao se v num dilema tico. O algoritmo passa a divulgar informaes inconsistentes, mas o pblico adora. Os nmeros crescem. A equipe de marketing pressiona para que a avaria no seja corrigida. Isso poderia de fato ocorrer na vida real?

O professor Denis Mau, do IME-USP, tranquiliza. Deixando de lado a fico, ele afirma que seria improvvel que as mquinas ao estilo do GPT-3 fossem utilizadas para a produo de fake news. O motivo simples: a operao desse rob custa caro, e no seria vlido, economicamente falando, destin-la a este fim.

Fora isso, como afirmou anteriormente, “tudo o que o GPT-3 faz fake news, em algum nvel”. A confiabilidade dos fatos apresentados pelo rob muito baixa, pelo menos por enquanto.

Por fim,Rscheacredita que a inteligncia artificial no substituir os jornalistas to cedo, mas que ambos trabalharo em conjunto.

“Neste aspecto, gosto de pensar positivo”, ela completa. “As mquinas nos ajudam a alcanar mais qualidade no trabalho. O rob faz um texto base que no serve para muita coisa, ento voc vai l e d uma olhada, finaliza. Se mais rpido e ainda tem um elemento humano, maravilhoso”.

A questo que resta, e que de certa forma permeia toda a discusso, se um texto escrito quase inteiramente por um rob poderia, no fim das contas, ser apreciado. Ana Rsche, enquanto escritora, no tem dvidas: “eu no s gostaria, como no conseguiria perceber a diferena. bem legal pensar nisso”.

Source link

Curtir isso:

Curtir Carregando…

Relacionado

Fonte: fogocruzadodf.com.br/tecnologia/2020/09/12/robos-ja-escrevem-sozinhos-mas-podem-ser-melhores-que-humanos

LEAVE A REPLY

Please enter your comment!
Please enter your name here