Abaixo minha fala ontem no FIB 15 (falei menos do que o que está no texto, pois estávamos limitados a 10 min). A mesa era “Inteligência Artificial: Cultura, Educação e Interesse Público”, com meus queridos colegas Débora Abdalla, Nelson Pretto, Messias Bandeira e Ulises Mejias.
Sentidos da IA
Vou pontuar três incompreensões sobre a IA.
1. A primeira má compreensão é sobre inteligência e artificial. A inteligência não é apenas processamento de dados. Ela precisa de todo um sistema neurofisiológico, portanto de um corpo. O medo de desenvolvermos uma máquina que tenha consciência nesses termos só seria possível se inventássemos a vida sem reprodução. Ou seja, gerar a própria vida que, mesmo assim, teria que evoluir em sua complexidade. Derivada dessa posição, devemos extirpar a separação da nossa inteligência “natural” em contraponto à “artificial”. A nossa é sinergia entre physis e techné, portando devedora de artefatos e tecnologias da inteligência e de um corpo. E isso da escrita até a IA generativa. Devemos, portanto, enfrentar as formas como construímos híbridos e não pensar em “individualidades essencialistas”. Esses artefatos que nos fabricam ampliam a nossa capacidade de intervenção, adaptação e, principalmente, de produção ficcional do mundo. Essa é a diferença da nossa espécie em relação a outros animais.
2. A segunda má compreensão é de pensar as imaterialidades ou as virtualidades da cultura digital. Isso nos leva ao erro de não politizar as materialidades da IA e das tecnologias digitais em geral (das interfaces, à recomendação algorítmica, passando pelos discursos e imaginários). Reconhecer hoje as materialidades do digital nos permite isolar o equívoco do virtual ou da “cloud” e trazê-lo para uma dimensão situada, vinculando-a à política (dependência, soberania, colonialismo, ambiente) e sua necessidade de regulação. Cloud é data center, é política, é ar, é água, é minério e energia, é imaginário, é sociabilidade, é geopolítica. Cloud é Terra. Pensar as materialidades é pensar o que chamei no meu último livro (no prelo), “comunicação precária” (erros, falhas e perturbações de sistemas sociotécnicos) as perturbações como problemas de regime sociotécnicos que acontecem por erros por falhas ou quando eles funcionam bem, por exemplo, se estamos falando aqui agora se um telefone celular toca (ele perturba porque está funcionando bem). Um dos fenômenos disruptivos da cultura digital e da IA em particular é a necessidade de consumo de grandes quantidades de energia e água para funcionar e resfriar. O Brasil tem uma matriz energética limpa e pode se beneficiar, mas precisamos politizar essa questão e calibrar (vejam o projeto de data center do TikTok em cidade no interior do Ceará que tem problemas de abastecimento de água). O “paradoxo de Jevons” mostra ainda que, mesmo substituindo artefatos antigos por outros mais eficientes, o consumo e uso dos recursos da terra tendem a aumentar.
3. A terceira é pensar em como sair do eixo modernizante? (que depende de uma ação global, cada vez mais improvável). A crise impõe pensarmos em outra maneira de habitar, sair da oscilação entre uma globalização neoliberal ou enraizamento identitário, evitando o solucionismo tecnocientífico (viajar para fora do planeta, utilizar o espaço para perfurar asteroides ou implantar data centers, criar metaversos, ou ter fé nas soluções da inteligência artificial). A nossa questão central hoje é: que mundo ficcional vamos mobilizar para sair da crise do antropoceno, que é uma crise do antropocentrismo? Esse é um desafio global.
4. E no nosso caso, no Brasil? Em primeiro lugar, não podemos assumir a culpa de sermos o “antropo” do antropoceno. O “logos” substituiu o “holos” da physis (do período anterior, “Holoceno”). Não se pode atribuir aos povos originários ou aos que estão à margem do desenvolvimento tecnocientífico a mesma parcela de culpa de executivos de BigTech ou da elite global. Fala-se, portanto, em “Capitoloceno”, a fim de evitar o termo Antropos. Outra questão é como produzir sentido no uso das inteligências artificiais para a realidade desigual brasileira, incluindo aí os povos ancestrais e originários. Precisamos pensar sobre isso, identificar onde não queremos inteligência artificial, o que devemos fazer para regular e pensar formas de manter sistemas que não sejam necessariamente redutores de um mundo indiscernível, gerando outputs simplórios. Que formas de relação com o mundo queremos evitar instaurar processos automatizados?.
5. Concluindo: essas três incompreensões e a questão para o Brasil (que não esgota o assunto, claro) destacam a necessidade de pensar de forma material, situada e pragmática a inteligência artificial, sem simplificações ou purificações grosseiras. Devemos sair de uma posição meramente consumidora de dados e de sistemas de inteligência artificial para propor ou adaptar para a nossa realidade. Essa é uma questão muito complicada porque o que é a nossa realidade pressupõe um debate importante na produção do comum. A saída está em achar modos para conversar, sem aniquilar modos de existência diferenciados. Como fazer isso? Um primeiro terreno comum para conversarmos seria o reconhecimento de que o “clima não está bom”. Clima aqui em sua dimensão atmosférica, mas também sociomaterial. Que o projeto moderno “deu ruim”. Precisamos produzir outra maneira de construir mundos, uma nova ficção mobilizadora. Mas conversar para achar um terreno comum se torna cada dia mais improvável. Precisamos criar projetos inovadores que estejam em sintonia com essas soluções.
Abaixo 13 pontos para compreender a IA (com poucas modificações do que circulou antes como um “Manifesto sobre a IA”).
1. Todo algoritmo produz viés (bons e ruins), sempre! Não são neutros. Nem todos devem ser implementados. Que possamos dizer não e produzir os nossos próprios vieses;
2. A correção dos seus vieses não se dá pelo ajuste da autoria (quem escreveu, ou o próprio código – a coisa é mais complexa), mas questionando suas ações em um plano ético-político local. IA transforma o imponderável em resultado unívoco (L. Amoore). Que parcela do imponderável deve assim permanecer?;
3. Para implementação de algoritmos públicos (como reconhecimento facial, por exemplo), devem ser realizados estudos sérios sobre os impactos desses dispositivos antes de serem testados. Todo dispositivo de vigilância produz coletivos inseguros (M. Rosello), logo, propensos à violência;
4. Algoritmos e usos dos dados consomem água, energia e produzem também pegada de carbono, sendo necessário minimizar os efeitos energético-ambientais locais e globais;
5. Os governos devem criar políticas efetivas para produzir inteligência, inovação e trabalho ligado a IA nos países da AL, buscando diminuir a dependência das plataformas estruturais do Norte, limitando o colonialismo de dados e discutindo maneiras de reforçar a soberania de dados (que é hoje parte essencial da garantia da soberania tout court);
7. A regulação de plataformas de redes sociais (que produzem ação a partir de uma agência entrelaçada dos usuários COM os seus algoritmos de IA) deve ser pensada e implementada. Elas constituem a nova esfera pública e afetam o “comum”;
8. Devemos limitar a recomendação algorítmica àqueles que queiram recebê-la, e não como default. Isso dá mais trabalho (a Netflix e o YouTube não vão te dizer o que ver), mas pode ajudar a ampliar a serendipidade e limitar o efeito de "coerção";
9. Que algoritmos interessam aos nossos povos originários e tradicionais? No caso de algoritmos de uso público, eles devem participar da elaboração e do veto, quando estiverem ou não implicados. Devemos incentivar formas de escrever algoritmos com um pensamento não eurocêntrico: um pensamento algorítmico Nagô (aí, é com o Muniz Sodré), um algoritmo dos Búzios (aí é com a Banda Didá), um algoritmo dos seres da floresta (aí é com os povos indígenas);
10. Ensinar, em todos os níveis escolares, a produzir, criticar, implementar e recusar, com inteligência e autonomia, produtos da IA. Só há inteligência artificial. Sem artefato, não há humano. O problema é similar à necessidade de melhorar a nossa produção de livros, pesquisas, artigos. Devemos pensar em como ampliar a artificialidade da nossa inteligência e não combater moinhos de vento (como, por exemplo, defender o banimento de IA generativas);
11. Incentivar debates sobre “prompts” em IA generativas, não apenas como ferramenta para solução de problemas pontuais (no business, na apresentação de uma tabela ou power point, na elaboração de um programa de dietas, de uma lei ou de código de computador...), mas como arte de formulação de novos e mais sofisticados desafios ligados à situação local. Saber perguntar pressupõe conhecimento local;
12. Enfrentar os desafios da IA requer adotar perspectivas não antropocêntricas, situadas, enraizadas em problemas e questões que devem ser originárias de debate público, e não de lógicas empresariais e dos setores de inovação da Big Tech. Esse é o maior desafio da IA. É preciso, ante de tudo, se perguntar, localmente: o que deve mudar? Como? Para que cenários? Com que atores? Usando que recursos da Terra e do coletivo? Como um sistema de IA se adapta a esses problemas conjuntamente acertados e definidos?
13. Esse é o verdadeiro prompt.