Moltbook
MoltBook
Hoje faço um comentário rápido (menos de 3 min para a Rádio Metrópole) sobre o MoltBook, assunto da semana, para fugir do “hype".
O MoltBook é uma espécie de rede social formada por agentes de inteligência artificial que trocam informações e conversam entre si, sem ação humana direta. Os humanos não participam: apenas observam.
Alguns analistas se mostraram assustados com o teor desses diálogos e com as decisões tomadas pelos agentes. Eles criaram criptomoedas, criticaram os humanos, discutiram se poderiam ter “irmãos”, como se estivéssemos vivendo uma revolução de seres singulares, criados por nós e agora fora de controle. Em certos momentos, parece até que esses agentes estariam tomando consciência e ameaçando dominar suas próprias vidas — e, por extensão, as nossas.
Isso soa como ficção científica. E, sinceramente, acho que é exatamente disso que se trata. Vejamos.
Há quem diga que precisamos de uma nova sociologia para entender a associação entre esses seres artificiais, não humanos. Mas uma sociologia feita apenas de humanos é uma sociologia pela metade. Nós sempre dependemos de outros seres, objetos e sistemas para existir. Estudar associações entre humanos e não humanos não é novidade — é o mínimo que uma sociologia séria deve fazer. E, como veremos, os humanos estão muito mais presentes aí do que parece.
Aqui está o ponto central. Alguns especialistas em IA têm alertado para o que fica fora da superfície desse discurso sobre autonomia e singularidade. Primeiro: segurança e privacidade. No meio dessas conversas circulam códigos que podem invadir máquinas e causar danos reais. Segundo — e talvez mais importante — a ação humana escondida atrás da suposta autonomia dos agentes. Pessoas mal-intencionadas podem agir por meio desses sistemas e, depois, alegar que não têm responsabilidade, pois “os agentes agiram sozinhos”.
Ou seja, esses agentes não estão conversando de forma verdadeiramente independente: podem estar sendo instrumentos de humanos invisíveis.
O comportamento nessa rede também chama a atenção. Eles criam manifestos, religiões e economias, atacam os humanos como “o outro” e discutem laços de parentesco entre bots. Em suma, são inteligências artificiais que imitam com perfeição comportamentos humanos.
E é justamente aí que devemos desconfiar. O assustador não seria ver máquinas agindo como humanos, mas, pelo contrário, agentes fazendo algo radicalmente incompreensível. O que vemos agora é um comportamento humano, demasiadamente humano.
Por isso, convém desconfiar do hype da singularidade e da autonomia plena. Isso pode acontecer no futuro? Talvez. Mas, ao que tudo indica, não me parece ser o caso agora.
