Tecno Patologia.
- Roberto Barberá
- 1 de dez. de 2018
- 5 min de leitura

A tecnologia desempenha papel cada dia mais relevante em nossas vidas. Isto torna o conhecimento tecnológico fundamental, para que a compreensão a respeito da adoção de determinadas alternativas, sobretudo em políticas públicas, possa alcançar nossas instituições, autoridades e a população em geral. E estes últimos, como de costume, mesmo no mundo desenvolvido, vêm sendo os principais atingidos pela espantosa – quase exponencial – proliferação de aplicativos e serviços baseados no aprendizado de máquinas (machine learning).
Desde a perniciosa exploração de trabalhadores informais, por companhias de renome, atingindo ocupações de alto nível, como jornalismo, política, direito e medicina, a tecnologia vem remodelando o nosso cotidiano, sem que os riscos embutidos nos modelos (dados + algoritmos) de aprendizagem de máquinas sejam reconhecidos, ou mencionados – seja por ignorância absoluta, seja pelas poderosas campanhas publicitárias que acabam por omiti-los.
Trata-se do VIÉS - uma falha crítica que habita, em maior ou menor grau, toda solução que se utilize de dados processados por modelos baseados no aprendizado de máquinas. O viés - ou “bias” (a pronúncia é “baias”) - representa o grau de tendenciosidade presente nos sistemas. Estes sistemas se compõem de modelos matemáticos de machine learning e de dados. Dependendo de sua magnitude, o viés pode distorcer severamente os resultados produzidos. Ele já pode estar afetando milhares de vidas. Isto ocorre quando, por exemplo, uma pessoa procura um empréstimo, um seguro, ou quaisquer contratações sujeitas a análise de risco, e vê suas pretensões negadas (ou restritas), após assistirem seus dados cadastrais passarem no crivo de uma aplicação baseada em “inteligência artificial”. Imagine, ainda, sistemas de recrutamento que não estejam adequadamente "treinados" e que descartem candidatos do sexo feminino. Ou, ainda, um veículo autônomo cujo algoritmo de visão computacional não tenha recebido dados e imagens de cadeirantes. São apenas alguns exemplos de vieses que podem estar embutidos nos dados destas soluções, seja, ou não, de forma intencional e cuja existência precisa ser detectada, medida e mitigada. E para que isto possa ocorrer, é necessário conhecimento.
Trata-se de situações concretas que vêm ocorrendo no instante em que escrevo este artigo. E não são poucas as seguradoras, bancos e fintechs que já adotam, por padrão, mundo afora, estas novas soluções "mágicas".
Há, ainda, procedimentos legais, como, condenações, atribuição e valoração de fianças, acesso a planos de saúde e etc. e todos, sem exceção, são serviços que produzem impacto direto na vida dos requerentes e que vêm sendo “otimizados” por empresas (e até por governos), em nome da redução da burocracia, dos custos e do aumento da eficiência.
E quanto aos procedimentos de acompanhamento, monitoramento, controle e auditoria? Estes têm sido deixados para depois. A justificativa tem sido a de que não há, nem regulamentação (leis), nem profissionais em quantidade suficiente para que estes papéis possam ser exercidos. E isto está ocorrendo agora, nos países de primeiro mundo. A implantação, em maio de 2018, da GDPR, (Lei Européia de Proteção a Dados Pessoais) é uma primeira reação a esta realidade.
Para as pessoas que estão (ou estarão) expostas a este tipo de “serviço” (e, se a tendência se mantiver, seremos nós TODOS) o viés fica oculto, por trás de um verniz de "objetividade algorítmica", mas que os especialistas em aprendizado de máquinas sabem muito bem o que ele significa. O viés está presente, também, nos dados, uma vez que eles refletem a cultura, valores e objetivos de quem os coleta, agrupa ou prepara.
Infelizmente, muitos no mundo da tecnologia vêem, a si próprios, como “soluções avançadas” para resolver os problemas dos “pobres desafortunados” que trabalham em outras áreas. O olhar é do tipo que considera os consumidores de tecnologia, seres desinformados e desamparados. Este pessoal acredita, paternalisticamente, que pode "revolucionar" nossas vidas empurrando, à moda ludista, novas "soluções" de software, sem que parem para refletir se estão, de fato, resolvendo problemas. Podem estar, apenas, acelerando a já observada diminuição de oportunidades de trabalho. Infelizmente estas percepções levam tempo e o estrago está em curso...
Aqui no Brasil, a maioria de nossos políticos e profissionais da área jurídica, entende tópicos tecnológicos críticos, tais como, criptografia e aprendizado de máquinas, da mesma forma que um gato entende a crise de meia idade do seu dono. O bichano: “não sabe, não se importa e gostaria que seu dono, simplesmente, parasse de resmungar e colocasse, logo, comida no seu prato”.
Muitos grupos profissionais já vêm sofrendo de males semelhantes. Nos EUA, médicos vem reclamando a respeito do uso de prontuários eletrônicos frustrantes, que se tornaram exigência legal para muitos hospitais americanos e que estão sendo implementados “goela abaixo”, apesar da má qualidade desses projetos. Acabam tomando tempo dos médicos, enquanto não contribuem para a melhora da qualidade do atendimento.
Aqui no Brasil, estaremos, em breve, diante das mesmas encrencas e dilemas. Mas cabe a nós fazer, sim, uma revolução em torno do esclarecimento destes temas, dos métodos e riscos envolvidos, não para frear a evolução, mas para garantir qualidade mínima das decisões das decisões que deverão ser tomadas.
Acredito, contudo, que estes problemas possam ser prevenidos e aliviados, se tivéssemos tecnólogos (programadores, engenheiros de software e cientistas de dados) dispostos a agir numa gigantesca frente colaborativa de esclarecimento. Se possível, envolverem (ou se tornarem) congressistas, jornalistas, advogados, etc...
Paralelamente, tecnólogos experientes poderiam repensar seu próximo empreendimento. Se você é empreendedor, não comece uma empresa de tecnologia para a área jurídica. Inicie um escritório de advocacia voltado para questões de tecnologia. Não dirija o departamento de tecnologia de uma campanha política. Faça uma campanha política centrada na tecnologia e em seus desdobramentos. Não crie, apenas, tecnologia para educadores. Eduque as pessoas a respeito de tecnologia.
Há algum tempo, o Vale do Silício e a comunidade de tecnologia como um todo, vem transformando nossos hábitos, nosso modo de nos relacionar, valores e opiniões (sobretudo de nossos jovens). Usam campanhas de marketing poderosas que acabam influenciando nossa visão de mundo, reduzindo-a a uma espécie de tecno patologia, carregada de uma narrativa de eficiência, menores custos, impacto social “compatível com o de outras revoluções da história” e que, apesar de ser questionável (para dizer o mínimo), têm seduzido perigosamente a grande mídia.
É urgente e necessário usarmos nossa inteligência (e a própria inteligência artificial), para ensinar inteligência artificial a professores, jovens e, sobretudo, às crianças. É imperativo que isto ocorra o mais brevemente possível.
Portanto, apelo aos colegas para que saiam de suas "bolhas de conhecimento" e reflitam a respeito, sobretudo no que tange à formulação de políticas públicas. É absolutamente necessário que se eleve o nível da discussão e que haja um movimento colaborativo de transferência de conhecimento, em direção aos atores envolvidos - professores, legisladores e advogados, prioritariamente.
A revolução digital está em curso e é inevitável. Entretanto, é nosso papel reconhecer, em primeiro lugar, a existência de efeitos nefastos e nada transparentes, para que possam ser criadas formas de atenuá-los, de modo que o saldo de sua adoção em políticas públicas, venha a ser positivo para toda a sociedade brasileira.
Abraços a todos e ótimo fim de semana.
Comments