Virou moda sites que brincam com o autocorretor do celular. São diversas páginas simulando piadas com as sugestões que o aparelho dá na hora de digitar uma mensagem, como mostra o Damn You AutoCorrect. Mas os algoritmos por trás dessas funcionalidades causam muito mais do que piadas.
Um artigo no New York Times desse domingo, escrito por Evgeny Morozov, discute o quanto a nossa cultura pode ser moldada apenas por essas sugestões e trocas automáticas de palavras na rede. Para ilustrar, o autor cita o caso do livro da Naomi Wolf que teve a palavra “vagina” censurada pelo iBooks da Apple. Em vez da palavra completa, o serviço de compra de livros eletrônicos publicou o título como “V****a”. Parece uma troca boba, afinal é uma palavra totalmente aceitável e respeitosa na sociedade contemporânea, mas é um sinal de que o controle sobre a nossa língua fluente não está mais no uso e, sim, na seleção que as empresas fazem. No caso citado, leitores questionaram a decisão da Apple e pediram para publicar a palavra sem censura, mas quantos casos similares acontecem e não sabemos?
Outro exemplo que Morozov comenta é a censura que o Facebook impõe às imagens consideradas pornográficas ou ofensivas. A rede social possui um algoritmo que analisa as imagens publicadas e identifica possíveis situações, digamos, não pudicas. Dessa vez, o serviço tirou do ar uma tirinha em quadrinhos da revista norte-americana The New Yorker, que mostrava Adão e Eva (eles mesmos!) no Éden. O problema: mamilos. De acordo com a política da rede social, qualquer imagem contendo mamilos ou, ér, o famoso “cofrinho” será retirada do ar.
Por trás de atitudes como essas, há a criação de uma cultura de policiamento. Um usuário, por exemplo, que é censurado vários vezes por postar a foto de um bebê tomando banho pode passar a acreditar que, realmente, o conteúdo é ofensivo. A mesma situação pode ser aplicada ao nome do livro. Se for padrão a Apple trocar algumas palavras por asteriscos, editoras poderão evitar usar certas expressões para não ter que se preocupar, e assim, aos poucos, a decisão pode virar uma norma. A palavra original deixa de ser usada e a sugerida pela empresa vira padrão.
O mesmo se aplica ao autocorretor dos celulares. Se todas as vezes que se tentar digitar uma mesma palavra (como “merda”, “vagina”, ou qualquer outra) o algoritmo decidir trocar por uma nova, o usuário, conforme o uso, ficará propenso a já usar a alteração do que esperar o aparelho indicar a mudança. Essas palavras, então, poderão ser vistas como ofensivas ou cair no desuso.
E, como diz o artigo, se antes os gatekeepers (ou os selecionadores de conteúdo) eram os jornalistas, editores e formadores de opinião, hoje, há também o algoritmo para decidir e delinear a nossa cultura. E o mais problemático é que esses algoritmos têm seus códigos fechados, o que deixa as regras e os critérios de seleção apenas acessíveis às empresas que os criaram. Nós, os usuários, não temos como interferir. Fica-se, então, a mercê do que uma organização privada, muitas vezes de um outro país, decide como sendo o correto.
Mesmo com a possibilidade de se customizar a ferramenta (ou seja, acrescentar as palavras e “ensinar” o algoritmo o que deve ou não ser trocado), o acesso do usuário é muito limitado e exige bastante paciência.
No fim, fica a pergunta: quem define o que é o correto no autocorretor?