Você já leu alguma notícia feita por robôs? Provavelmente, sim
Quando falamos de Jornalismo Automatizado, muitos imaginam redações repletas de “robôs humanoides”trabalhando dia e noite para publicar informações que impactam diretamente nossas decisões. Em alguma parcela, sim, essas notícias podem influenciar nossos dias, mas não são construídas da forma que as obras de ficção científica remetem.
De acordo com Silvia Dal Ben, autora da pesquisa “Abrindo as caixas pretas das notícias escritas por robôs: uma cartografia do Jornalismo Automatizado”, essas tecnologias existem há mais tempo do que percebemos. Para chegarmos à inteligência artificial (AI), que é “a capacidade de maquinas e computadores executarem tarefas humanas de forma autônoma e terem o poder de aprender, raciocinar, perceber, deliberar e decidir de forma racional e inteligente”, são necessários vários elementos que ocupam lugar comum em nosso cotidiano.
As AIs são sustentadas por um tripé composto pela Big Data, que é a imensa quantidade de dados que podem ser usados para gerar valor; pelos modelos de estruturação dos dados, que já existem e orientam a formação dos valores para a inteligência artificial; pela capacidade de processamento desses dados, que podem ou não estar em uma nuvem virtual.
Dados são gerados constantemente e dobram de tamanho a cada dois anos. Segundo Silvia Dal Ben, em 2003, eram 4,4 trilhões de gigabytes (GB) de informação no mundo e, em 2020, a expectativa é que sejam 44 trilhões. No Brasil, o crescimento para o mesmo período parte de 212 bilhões de GB para 1,6 trilhão.
O Big Data se fundamenta no que é chamado de “5Vs”: velocidade, variedade, valor, veracidade e volume. Todavia, dados não remetem diretamente à informação.
“Apenas 22% desses dados, aproximadamente, seriam informações úteis, ou seja, perto de 80% disso não é estruturado. Ainda, desses 22%, somente 5% são analisados e usados de alguma forma”, diz Silvia Dal Ben.
Para estruturar essa quantidade de elementos, existem os algoritmos, que trabalham com operações de filtragem, classificação, relevância, e outros dados interpretados para determinar uma gradação de valor. Os algoritmos são sequências lógicas programadas para resolverem problemas, darem respostas e executarem tarefas automaticamente, obedecendo linhas de comando definidas.
São tantas situações inseridas nas linhas de código de um algoritmo que alguns têm a capacidade de aprender, o que é chamado de Machine Learning. Um exemplo desses “bots” existentes no Google e Facebook é o resultado de pesquisas e postagens.
Quando fazemos pesquisas no Google, podemos definir qual a região dos resultados, a partir de qual data são importantes e outros itens, como imagem e palavras relevantes. Com o tempo, o “bot” do Google aprende as nossas preferências e começa a anteceder e sugerir opções com base nos dados que ele colheu sobre as nossas escolhas.
No Facebook, as postagens que aparecem em nossa timeline são definidas, também, por algoritmos. Muitas vezes, o “bot” do Facebook pode preferir esconder um conteúdo postado por nossos amigos por decidir que aquilo é agressivo ou irrelevante, o que abre margem para o debate sobre a neutralidade desses Robots.
Notícia publicada originalmente em www.brasilcti.com.br/pesquisa/voce-ja-leu-alguma-noticia-feita-por-robos-provavelmente-sim/