Menü
CORAGEM #5


[ESPECIAL SXSW]

Precisamos falar menos sobre Inteligência Artificial...

e mais sobre como estamos usando a tecnologia


Paula Ribas


Inteligência Artificial certamente foi uma das palavras mais presentes na programação do SXSW 2019. Mas entre os vários painéis, palestras e workshops que discutiram o tema, poucos destacaram grandes novidades ou inovações na tecnologia em si. Quase sempre, o protagonismo das discussões girou em torno de outros termos, que acompanharam de perto a IA durante todo o festival: bias; dados pessoais; privacidade; legislação; ética.


Em um momento em que a Inteligência Artificial assume papel de destaque em processos seletivos, decisões judiciais e até mesmo corridas eleitorais, discutir as escolhas humanas por trás das escolhas feitas pelas máquinas é fundamental para entender as implicações do uso da tecnologia hoje, bem como o que podemos esperar para o futuro.


Futuro, aliás, é a especialidade de Amy Webb — futurista e fundadora do Future Today Institute. Em uma das palestras mais esperadas do evento, ela apresentou algumas das principais tendências de tecnologia em 2019, traçando ainda uma série de cenários possíveis para os próximos anos.

Um dos exemplos projetava o uso de dados pessoais e biometria. No cenário mais otimista — e menos provável, com apenas 10% de chance de se concretizar, segundo o estudo –, a coleta de dados será completamente transparente. As pessoas entenderão como, quando, onde e por que serão identificadas e monitoradas. As senhas serão substituídas pelo reconhecimento biométrico, aumentando a segurança.


No cenário neutro — probabilidade de 50% –, o status quo vai ser preservado. As informações pessoais continuarão sob controle de alguns poucos provedores e não vai haver certeza sobre como nossas informações serão usadas. Os processos de autenticação continuarão sendo burocráticos e vulneráveis a ataques.


Já no cenário mais catastrófico — probabilidade de 40% –, as empresas irão trabalhar ativamente para driblar a proteção de dados. Não saberemos quem possui nossas informações ou mesmo quais informações são essas. Países autoritários irão manter bancos de dados para monitorar e controlar a população.


Você sabe exatamente a que está dando consentimento?


O painel Privacy Police: Polarized Approaches to Global Data debateu diferentes abordagens adotadas por países em relação ao uso de dados pessoais. Embora a discussão em torno do GDPR tenha gerado uma mobilização global, os países fora da União Europeia se movimentaram de formas diferentes em torno da proteção de dados.


Nos Estados Unidos ainda não existe uma legislação federal que regulamente o uso de dados de forma abrangente e unificada — o entendimento do que é um dado pessoal, por exemplo, varia de estado para estado. E se o GDPR tem como princípio a ideia de que as pessoas devem saber como seus dados são usados e dispor de recursos para protegê-los — como revogar um consentimento ou solicitar que eles sejam apagados de um banco de dados –, nos Estados Unidos os direitos ainda são limitados nessa área. Na prática, isso significa que as empresas que operam no país encontram mais facilidade para adotar práticas como a venda de informações pessoais de residentes dos Estados Unidos para terceiros.


Empresas como Amazon e Netflix conhecidamente combinam dados de clientes com Inteligência Artificial para otimizar o sistema de entregas e personalizar a experiência de navegação, respectivamente. Sim, a Amazon provavelmente sabe que você vai fazer uma compra antes mesmo que você decida fazer, e a Netflix conhece o seu gosto suficientemente bem para te persuadir a assistir uma nova série exibindo uma imagem de divulgação sob medida. Você pode achar isso um pouco assustador, ou pode gostar de ter uma experiência personalizada para você.


Se a ideia de que seus dados podem ser usados para prever seu comportamento ou te influenciar a tomar determinada decisão não te incomoda tanto, pense no seguinte: eles também podem ser usados para treinar algoritmos capazes de identificar, classificar e prever padrões de comportamento aplicáveis a milhões de pessoas. Ou seja, as informações que você disponibiliza podem ser usadas não apenas para influenciar escolhas suas, mas também escolhas de milhões de pessoas.


Isso pode parecer inofensivo quando pensamos em algo como escolher uma série para assistir em um serviço de streaming. Mas o que pode acontecer quando esses dados são vendidos? No caso Cambridge Analytica, dados coletados em milhões de perfis no Facebook foram usados para influenciar o resultado de uma eleição.


Embora seja imprescindível que a legislação evolua no sentido de garantir recursos para a proteção de dados, a discussão vai muito além do direito. A exemplo do GDPR, a maioria das leis em vigor pelo mundo se baseia no consentimento como ferramenta fundamental para se resguardar do uso indesejado de informações pessoais. A questão é que a grande maioria das pessoas não sabe exatamente a que está consentindo quando aceita os termos de uso de um serviço.


Você certamente usa o Google em uma boa parte do seu dia a dia. A pergunta aqui é: você está realmente ciente de todas as concessões que você fez ao aceitar os termos de uso do serviço? O site Terms of Service; Didn’t Read pode te ajudar a responder — e a refletir sobre as informações que você concordou em compartilhar com o Google e com outros serviços.


E as empresas privadas não são os únicos motivos para preocupação. Em diversos países, governos têm investido em soluções de Inteligência Artificial para automatizar processos. Na China, por exemplo, já existe uma legislação para proteção de dados, semelhante ao GDPR, com severas punições em caso de venda ilegal ou vazamento de dados. No entanto, a lei não garante à população muitos recursos para proteger seus dados do próprio governo. Na verdade, existem brechas que permitem ao governo exigir que organizações forneçam dados sob o pretexto de colaboração com o serviço de inteligência nacional.


Há alguns anos o governo chinês vem coletando enormes volumes de informações por meio de câmeras de segurança instaladas nas ruas e espaços públicos em geral. Quando alguma infração é cometida, os algoritmos de reconhecimento facial cruzam as imagens das câmeras de segurança com fotos de um banco de dados de identificação nacional — que também reúne uma série de outras informações pessoais, como tipo sanguíneo, medições de energia elétrica residencial e até mesmo compras online.


O estado de vigilância na China leva a uma reflexão que precisaremos fazer como sociedade: o fim da privacidade é um preço que queremos pagar, seja para desfrutar de experiências cada vez mais personalizadas, seja para ter nossa segurança garantida?


Aquele cenário catastrófico projetado pela Amy Webb não parece tão distante assim, não é mesmo?


Os algoritmos são justos?


Não se sabe ao certo de que forma o governo chinês utiliza esse massivo volume de dados coletados. Recentemente, um relatório da Human Rights Watch trouxe evidências de que o aplicativo de vigilância usado pelas autoridades chinesas tem sido usado para reprimir indivíduos muçulmanos no país.


Nos Estados Unidos, a justiça passou a usar um software preditivo que calcula a probabilidade de uma pessoa cometer crimes novamente. As penas são aplicadas de acordo com os resultados dessa análise. E elas são consistentemente desfavoráveis a pessoas negras.


O painel Creative Ways to Solve the Bias Problem in AI discutiu práticas que vêm sendo adotadas pela indústria e pela academia para lidar com os vieses em soluções de IA.


Algoritmos de aprendizado de máquina usam estatísticas para encontrar padrões em dados. O problema é que os algoritmos não são capazes de fazer uma análise subjetiva de contexto. Os padrões encontrados são correlações meramente estatísticas, e nem sempre refletem uma relação de causa/consequência.


Por esse motivo, a tendência é que esse tipo de software reproduza e reforce vieses já existentes na sociedade. Ou seja, se as estatísticas mostram que nos Estados Unidos a reincidência de crimes é maior entre a população negra, esse padrão será identificado e usado pelos algoritmos sem considerar o contexto histórico de repressão da população negra no país.


Quando a Inteligência Artificial assume o papel de tomar decisões críticas para a humanidade, a discussão não pode se resumir à tecnologia, ou à matemática. O que determina se um algoritmo é justo quando o que está em jogo é uma sentença criminal?


Não é simples traduzir para a matemática computacional questões que lidam com alto grau de abstração. A matemática não consegue lidar com essa complexidade sem o apoio de outras áreas de conhecimento. Por isso, disciplinas como ética e filosofia tornam-se cada vez mais presentes em cursos de computação.


É possível quantificar todas as nuances e particularidades humanas em um algoritmo? A resposta é, provavelmente, não. Mas é, sim, possível pensar em soluções de Inteligência Artificial capazes de lidar melhor com a subjetividade humana.


Uma abordagem interessante para a IA é a da “explicabilidade”. Uma das características do aprendizado de máquina é que depois de serem exaustivamente treinados com grandes volumes de dados, os algoritmos chegam a determinadas conclusões sozinhos. O problema é que, na maioria das vezes, as pessoas que os criaram não sabem exatamente por que eles chegaram a essas conclusões. A explicabilidade se refere à capacidade do sistema de explicar porque chegou a determinado resultado, em linguagem compreensível para um ser humano.


Não há uma maneira fácil de rastrear a lógica do sistema de aprendizado de máquina. E no caminho da explicabilidade existe um grande obstáculo: a tensão entre as comunidades de Aprendizagem Profunda e IA Simbólica, que se enxergam como dois paradigmas diferentes e historicamente não colaboraram muito entre si.


A IA clássica ou simbólica se concentra em conceitos e regras, enquanto a aprendizagem profunda é centrada nas percepções. A IA simbólica tem representações baseadas em uma lógica mais humanamente compreensível. Mas para realmente reproduzir o pensamento humano, a IA precisa ser capaz de perceber e conceituar a informação.


Existe uma expectativa irreal de que as soluções de Inteligência Artificial tenham que ser infalíveis. Elas não são e não serão. A explicabilidade pode ajudar a entender melhor os resultados obtidos e contribuir para que exista uma relação de confiança entre indivíduos e organizações quanto ao uso de IA. Mas para isso, ela precisa caminhar ao lado da transparência.


Antes de falar sobre futuro, precisamos falar sobre o que está acontecendo hoje, agora. Porque em meio a tantas incertezas quanto ao futuro da Inteligência Artificial, há uma constatação óbvia: o que vai determinar qual realidade irá se concretizar são as escolhas que estamos fazendo agora.

Perspectives

Explore também a Perspectives, uma publicação online global sobre tecnologia e negócios para líderes digitais.