No âmbito da literatura, e particularmente no gênero da ficção científica, um tropo narrativo comum é o da criatura que se volta contra o criador. Essa fobia, quando aplicada a robôs, aliás, tem até um nome informal na obra do Asimov: [1] complexo de Frankenstein. O nome talvez não seja tão apropriado para o tropo, já que a moral da história em Frankenstein é menos “não seja um cientista maluco que desafia a natureza e cria uma vida”, e mais “não crie algo se você não for cuidar da sua criação”.

Diante de tantas narrativas construídas ao redor dessa fobia e que estão tão presentes na cultura que consumimos – em filmes, livros, música, quadrinhos, jogos –, não é difícil sentir, mesmo que como um rápido pensamento intrusivo, aquela desconfiança sobre o que a inteligência artificial vai preparar para o nosso futuro. (Por via das dúvidas, recomendo sempre aos incautos tratar com educação portas de edifício e as cancelas de estacionamentos que lhes dão boas-vindas).

Ao se tratar de uma inteligência natural ou de uma superinteligência artificial, é concebível que, mesmo com certos cuidados, a criatura ainda assim se volte contra o criador. Na ficção, isso comumente aparece em cenários em que a criatura é explorada: do livro “Revolução dos Bichos” de Orwell (1945) ao jogo “Detroit: become human” (2018), criaturas de inteligência equivalente ou superior à humana se veem subjugados e buscam, por meios extremos, reverter a situação.

Esses, deve-se enfatizar, são cenários hipotéticos.

A IA que conhecemos hoje é chamada de IA estreita. Ela já foi concebida para imitar a cognição humana ao realizar tarefas específicas – conhecer faces, reagir a comandos de voz, dirigir um veículo, responder perguntas, ou recomendar um filme. Antes de se tornar uma superinteligência artificial – quando a IA se tornar a inteligência mais capaz do planeta –, o desenvolvimento da IA ainda precisa se tornar um sistema muito mais complexo que o que existe hoje. Nesse estágio intermediário, chamado “inteligência artificial geral”, a IA já se torna muito mais independente e complexa, possuindo várias competências e formando conexões entre diversos domínios do conhecimento.

Até chegarmos aos estágios intermediário e avançado, teremos, certamente, uma corrida. Seja lá qual cara essa corrida venha a tomar, ela terá implicações econômicas, políticas, e sociais concretas. Apesar de não termos (ainda) experiência em batalhar pela sobrevivência do homo sapiens sapiens com espécies mais inteligentes que a nossa, temos, sim, experiência com corridas tecnológicas, seus riscos e oportunidades.

Vejo especialistas apontando preocupações com as implicações do avanço da IA sobre a taxa de desemprego. Essa preocupação não é novidade em nenhum dos grandes ciclos de desenvolvimento tecnológico da nossa história recente, e ganhou movimento e nome próprio no século XIX – ludismo. Historiadores pontuam que o protesto contra as máquinas era apenas um ponto focal de um grupo martirizado pela turbulência econômica e pelo já alto desemprego. O ambiente econômico global não é tão diferente nesse sentido – quantas crises globais tivemos desde os anos 2000? –, mas, tal como antigamente, a culpa não é das máquinas.

Vejo especialistas apontando preocupações com o marco regulatório para a IA (ou, especificamente, ausência dele). É comum que a regulação esteja alguns passos atrás da tecnologia, e até que haja, mais cedo ou mais tarde, um esforço ativo para preencher esse vácuo. Há casos no avanço tecnológico em que isso foi feito com sucesso,[2] e há casos que, em retrospectiva, são no mínimo curiosos. (Um exemplo foi uma lei britânica que exigia que alguém andasse à frente de uma locomotiva bradando uma bandeira vermelha para avisar do perigo aos transeuntes). Em outros casos, ainda, a inação ou ação tardia foi custosa para alguns e vantajosa para outros – por exemplo, no caso dos tratados de não-proliferação nuclear. Nesses casos, a culpa – do atraso, do progresso, ou do dano – também não foi das máquinas.

Essa corrida também traz implicações para a competição e o desenvolvimento das tecnologias e modelos de negócio associados à IA. É aqui, aliás, que o cenário pode ficar realmente sombrio.

O uso da bomba atômica em 1945 inaugurou uma era da humanidade em que não podemos mais nos dar ao luxo de ignorar sua existência – ao contrário do Frankenstein, a tecnologia nuclear não pode mais ser ignorada, e muitos se esforçam ativamente para impedir que outros tenham suas próprias (tecnologias ou Frankensteins).

O rumo talvez não seja tão diferente com a IA. O entendimento sobre física nuclear que nos deu a bomba atômica nos presenteou com energia nuclear e medicina nuclear. Ainda assim, muitos dos que trabalharam em Los Alamos, inclusive Einstein, eventualmente se arrependeram de terem ajudado no desenvolvimento da bomba.

Em sua peça de 1599, “Much ado about nothing” (Muito barulho por nada), William Shakespeare cria uma comédia com leveza, ressaltando a trivialidade dos temas trazidos pelos personagens – a peça é uma comédia romântica que brinca com a superficialidade do amor. Para que isso funcione, Shakespeare mostra que aparências podem enganar, e que nem sempre a verdade é o mais óbvio à nossa frente.

Quanto à IA, essa corrida tecnológica, que aparenta ainda estar no início, parece inspirar o mesmo medo que vez ou outra aparece na ficção científica. (O criador da OpenAI, aliás, confessou temer o produto que está criando e admitiu também acumular ouro, armas e máscaras de gás em preparação para um cenário pós-apocalíptico).

Assim sendo, como podemos sair da superficialidade do medo diante desse possível ponto de inflexão?

As máquinas quebradas – e outras tantas paradas – em York em 1812 não impediram a acelerada adoção de maquinário cada vez mais avançado nas linhas de produção. A ficção científica também não nos fez parar (e nem o medo anedoticamente relatado por alguns). Marcos regulatórios, quando surgiram, podem ter atrasado ou dificultado de alguma forma o desenvolvimento, mas nem isso foi suficiente para parar de vez o avanço.

A IA já é uma realidade, e tem muito a oferecer para a prosperidade da espécie humana, seja na economia, saúde, educação, e até nas políticas públicas. Existem casos de uso da IA que claramente devem ser evitados – não é difícil imaginar o risco que haveria na existência de um sistema completamente autônomo de armamentos de guerra. O que queremos fazer para apoiar um e dificultar o outro?

 


[1] Isaac Asimov é o autor das três leis da robótica. Falo sobre elas brevemente neste artigo: https://digital.futurecom.com.br/especialistas/maquina-artificialmente-moral

[2] Quanto à aplicação de marcos regulatórios à IA no Brasil, já contamos hoje, por exemplo, com a Lei Geral de Proteção de Dados e seus princípios, como a responsabilização, a prevenção, e a transparência, que não apenas se aplicam aos dados pessoais tratados pela IA, como estão em harmonia com as boas práticas promovidas internacionalmente. 

 
* Philipe Moura é Chief Regulatory Officer da Associação Brasileira de Inteligência Artificial. Há mais de 12 anos, Philipe atua em temas de políticas públicas e regulação de tecnologia e inovação em mercados emergentes na América Latina, Ásia, Oriente Médio e África. Conselheiro e consultor, Philipe é mestre pela Universidade da Califórnia, ScrumMaster e Product Owner.