INTEIA Academy

Agentes Simulados e IA Generativa

Aprenda a criar simulações de comportamento humano com Inteligência Artificial

INTEIA Academy | Prof. Igor Vasconcelos Baseado no curso CS222 de Stanford 10 Semanas Python + Claude API Online
Ilustração artística de simulação de agentes com inteligência artificial
Inscrições Abertas - Turma 2026

10 semanas de curso online com certificado INTEIA Academy

Quero me Inscrever

Sobre o Curso

Como podemos criar simulações de sociedades humanas que reflitam nossas vidas?

Muitos dos maiores desafios do nosso tempo - desde promover o discurso público saudável até projetar respostas a pandemias e construir cooperação global para sustentabilidade - precisam lidar com a natureza complexa do nosso mundo.

O poder de simular mundos hipotéticos nos quais podemos fazer perguntas "e se" contrafactuais, e pintar imagens concretas de como um multiverso de diferentes possibilidades poderia se desenrolar, oferece uma oportunidade de navegar essa complexidade.

Este curso apresenta uma jornada por décadas de esforços nas ciências sociais, comportamentais e computacionais para simular indivíduos e suas sociedades, desde a literatura fundamental em modelagem baseada em agentes até agentes generativos que aproveitam o poder da IA generativa mais avançada para criar simulações de alta fidelidade.

Metodologia: Este curso é baseado na disciplina CS 222 de Stanford, adaptado para o contexto brasileiro com foco em aplicações práticas usando a API do Claude.

Objetivos de Aprendizagem

  • Compreender fundamentos de simulações de comportamento humano
  • Dominar arquiteturas de agentes generativos
  • Implementar sistemas de memória e reflexão
  • Criar agentes que simulam personas realistas
  • Desenvolver simulações multi-agente
  • Analisar considerações éticas em simulações

O Que Você Vai Construir

Agentes Generativos
Com memória e personalidade
Simulações Multi-Agente
Interações emergentes
Análise de Resultados
Insights comportamentais
Prof. Igor Vasconcelos

INTEIA Academy | Instrutor

Especialista em Inteligência Artificial e simulações computacionais aplicadas às ciências sociais.

Pré-requisitos
  • Conhecimento básico de Python
  • Noções de IA/Machine Learning (desejável)
  • Acesso à API do Claude (Anthropic)
  • Computador com Python 3.10+

Módulos do Curso

1

Introdução às Simulações: Passado, Presente e Futuro

Aula 1 de Stanford CS222 — O que são simulações? Por que se importar? Por que agora?

O que são simulações?

Simulações são programas que definem um ambiente e os comportamentos de indivíduos, e então produzem o mundo resultante. Você já viu simulações em jogos como The Sims, em filmes como Matrix, e em cursos acadêmicos com modelos como incêndios florestais. A ideia central é que podemos criar mundos virtuais onde agentes autônomos interagem e produzem resultados que nos surpreendem — mesmo quando nos mesmos definimos as regras.

Definição Formal

O estado do mundo ao longo do tempo W(t) é definido como uma função recursiva: W(t) = (S_E(t), S_A1(t), S_A2(t), ..., S_AN(t)), onde S_E representa o estado do ambiente, e S_Ai representa o estado de cada agente i. O próximo estado W(t+1) é determinado pela interação entre as regras do ambiente (R_E) e os comportamentos dos agentes B(Aí).

Características das simulações

Podemos executar simulações múltiplas vezes a partir do mesmo estado inicial. Podemos influenciar o estado das simulações. E, em retorno, as simulações nos surpreendem — o fato de que elas nos surpreendem deveria ser surpreendente, dado que nos conhecemos as regras.

Por que se importar?

Simulações nos permitem fazer perguntas contrafactuais do tipo "e se...?" criando um multiverso de possibilidades. Muitos problemas no mundo são "wicked" (complexos e mal-definidos), caracterizados por equilíbrios complexos e restrições do mundo real. Como indivíduo, que aula devo cursar? Como grupo, como ensaiar uma conversa difícil? Como sociedade, como organizar ação coletiva para sustentabilidade?

"Muitos desafios que enfrentamos exigem que exploremos contrafactuais complexos que não podem ser testados no mundo real. Simulações oferecem o potencial de responder perguntas que anteriormente não tínhamos como responder."

Ato 1: Passado — Simulações pré-IA generativa

A história das simulações inclui a Teoria da Mente (Gordon, 1986), autômatos celulares (von Neumann, 1966; Wolfram, 2002), teoria dos jogos (von Neumann & Morgenstern, 1944) e modelos baseados em agentes como o modelo de segregação de Schelling (1971). Essas abordagens tradicionais eram simples e interpretáveis, mas simplificavam excessivamente as contingências humanas.

Ato 2: Presente — Simulações com agentes generativos

Grandes modelos de linguagem podem ser induzidos a gerar comportamento humano condicionado a uma variedade de experiências. O trabalho Social Simulacra (Park et al., UIST 2022) demonstrou isso com a fórmula "[nome] e uma [descrição]". Pesquisas recentes replicaram pesquisas e experimentos (Horton, 2023; Argyle et al., 2023) e previram efeitos de tratamento (Ashokkumar et al., 2024). Os agentes generativos e o mundo de Smallville (Park et al., 2023) representam a fronteira atual.

Ato 3: Futuro — Rumo a uma simulação precisa do mundo

Uma visão: um simulador mundial de 8 bilhões de pessoas. A mudança de paradigma da IA generativa nos permite revisitar problemas antigos com novas perspectivas. O campo da simulação é novo e emergente, e a disciplina CS222 é um dos primeiros cursos dedicados a esse tópico.

Ver Slides Originais (EN)

Autômato Celular

Sistema discreto onde células evoluem baseadas em regras locais. Von Neumann (1966) e Wolfram (2002) formalizaram a ideia de que sistemas complexos emergem de regras simples aplicadas repetidamente em grades de células.

Modelagem Baseada em Agentes

Simulação onde agentes autônomos interagem segundo regras, gerando comportamentos emergentes. O modelo de segregação de Schelling (1971) é o exemplo clássico: regras simples de preferência geram segregação macroscópica.

Agente Generativo

Agente que usa grandes modelos de linguagem para gerar comportamentos realistas baseados em identidade e memória. A abordagem é aberta e captura nuances, mas é mais complexa que abordagens tradicionais.

Perguntas Contrafactuais

Simulações permitem criar um "multiverso de possibilidades" para explorar cenários hipotéticos. Isso é especialmente valioso para problemas complexos onde experimentos reais são impossíveis ou antiéticos.

Obrigatório Park et al. - Generative Agents: Interactive Simulacra of Human Behavior (2023)

O paper fundamental sobre agentes generativos e o mundo de Smallville

Opcional Park et al. - Social Simulacra (UIST 2022)

Trabalho precursor que demonstrou LLMs gerando comportamento social condicionado

Opcional Gordon, R. M. (1986). Folk psychology as simulation. Mind & Language, 1(2), 158-171.

Trabalho filosófico fundacional sobre Teoria da Mente como simulação

Esta aula inaugural estabelece o panorama completo do campo de simulações computacionais. O professor Joon Sung Park, doutorando em Stanford e criador dos agentes generativos, guia os alunos desde os autômatos celulares até a visão de um simulador de 8 bilhões de pessoas.

Conexão com o contexto brasileiro: Podemos pensar em simulações de políticas públicas no Brasil — como simular o impacto de programas sociais como o Bolsa Família em comunidades diversas, ou modelar o comportamento eleitoral em diferentes regiões. A capacidade de fazer perguntas "e se...?" tem enorme potencial para o planejamento urbano em cidades brasileiras e para a formulação de políticas educacionais.

Aplicação INTEIA Academy: Este módulo fornece o vocabulário fundamental que será usado ao longo de todo o curso. Preste atenção especial à definição formal de simulação (função recursiva) e à distinção entre simulações tradicionais (simples, interpretáveis) e generativas (abertas, complexas).

2

Problemas Complexos (Wicked Problems)

Aula 2 de Stanford CS222 — Quais problemas as simulações podem ajudar a resolver de forma única?

Vinheta 1: Redes Sociais

A aula começa com um estudo de caso sobre a evolução das redes sociais. No início, o problema era "o vencedor leva tudo" — plataformas precisavam escalar rapidamente. A solução foi o Feed de Notícias (2006), que capturava a atenção dos usuários. Porém, uma consequência não intencional foi que conteúdo sensacionalista e emocional superava posts ponderados. A solução proposta foi moderação de conteúdo com checagem de fatos, mas isso gerou acusações de viés e censura. Este ciclo recursivo ilustra perfeitamente um wicked problem.

Vinheta 2: Resposta à Pandemia

O segundo estudo de caso examina a resposta governamental à pandemia de COVID-19. Governos implementaram lockdowns para conter a propagação. Consequência não intencional: impacto econômico negativo significativo com efeito limitado na contenção. Solução: relaxar lockdowns com distanciamento social. Nova consequência: queda na confiança pública, dificultando a vacinação. Novamente, cada solução gera novos problemas.

Definição: Wicked Problems (Problemas Complexos)

Segundo Rittel e Webber (1973), wicked problems são desafios sociais ou de políticas públicas complexos e mal-definidos que resistem a soluções diretas. Exemplos incluem: equilíbrio trabalho-vida, política de imigração, sustentabilidade, guerra contra as drogas, saúde universal.

Propriedades dos Wicked Problems
  • Não há formulação definitiva do problema (a formulação é tão importante quanto a solução)
  • Não há regra de parada — nunca se sabe quando o problema foi "resolvido"
  • Soluções não são verdadeiras ou falsas, mas melhores ou piores
  • Não há teste imediato ou definitivo de uma solução
  • Cada solução é uma "operação única" — não há oportunidade de aprender por tentativa e erro
  • Não há conjunto enumerável de soluções potenciais
  • Cada wicked problem é essencialmente único
História: Wicked Problems, Design e IA

Rittel era um teórico do design na UC Berkeley. Webber era urbanista e teórico na UC Berkeley. Eles forneceram uma base para estudar "design". Os problemas de design se distinguem dos da ciência. Este estudo inspirou os fundadores da IA e da Interação Humano-Computador: Herbert Simon e Allen Newell. Design e engenharia lidam com problemas de "bordas suaves".

"Wicked problems são recursivos por natureza. Simulações podem nos ajudar a identificar as versões mais gerais dos nossos problemas?"

Modelo de Schelling

Thomas Schelling, economista da Universidade de Maryland, demonstrou com seu modelo de segregação (1971) como interações humanas simples levam a resultados complexos. O modelo demonstra o "ponto de virada" (tipping point) — pequenas preferências individuais por vizinhos similares resultam em segregação macroscópica dramática. A pergunta final da aula: o que seria necessário para o campo de simulação ganhar um Prêmio Nobel?

Ver Slides Originais (EN)

Wicked Problem

Problema complexo e mal-definido sem solução definitiva. Cada tentativa de solução revela novos aspectos do problema. Conceito introduzido por Rittel e Webber em 1973 no contexto de planejamento urbano.

Tipping Point (Ponto de Virada)

Momento crítico em que uma pequena mudança causa uma transição dramática no sistema. No modelo de Schelling, pequenas preferências individuais causam segregação completa quando ultrapassam um limiar.

Recursividade dos Problemas

Cada solução para um wicked problem gera novas consequências não intencionais que se tornam novos problemas. Simulações podem ajudar a mapear essas cadeias causais antes que aconteçam no mundo real.

Micromotivos e Macrocomportamentos

Conceito de Schelling (1978): comportamentos e motivações individuais (micro) geram padrões coletivos inesperados (macro). É a essência da modelagem baseada em agentes.

Obrigatório Rittel & Webber - Dilemmas in a General Theory of Planning (1973)

O artigo clássico que definiu "wicked problems" — leitura essencial para entender por que simulações são necessárias

Obrigatório T.C. Schelling - Micromotives and Macrobehavior, Cap. 1 (1978)

Como ações individuais geram padrões coletivos — o livro que inspirou gerações de modelagem baseada em agentes

Opcional Lazer, D. M., et al. (2018). The science of fake news. Science, 359(6380), 1094-1096.

Ciência da desinformação — contexto para o estudo de caso de redes sociais

Esta aula é central para entender a MOTIVAÇÃO de todo o campo. Antes de construir qualquer simulação, precisamos entender que tipo de problema ela pode resolver. Wicked problems não são apenas "problemas difíceis" — são problemas cuja própria formulação e parte do desafio.

Conexão com o contexto brasileiro: O Brasil é repleto de wicked problems: desigualdade educacional, violência urbana, desmatamento, polarização política, crise de saúde pública. O caso da pandemia discutido na aula é especialmente relevante — o Brasil viveu intensamente cada etapa desse ciclo recursivo. Simular os efeitos de políticas de lockdown em diferentes comunidades brasileiras seria um exercício valioso.

Aplicação INTEIA Academy: Ao longo do curso, incentivamos os alunos a identificar wicked problems brasileiros que poderiam se beneficiar de simulações com agentes generativos. O modelo de Schelling pode ser adaptado para simular segregação socioeconômica em cidades brasileiras.

3

Indivíduos, Grupos e Populações

Aula 3 de Stanford CS222 — Qual é a unidade quântica das simulações?

A Unidade Quântica das Simulações

Indivíduos são a unidade quântica das simulações. Algumas simulações, como os agentes generativos de Smallville, definem explicitamente o que é um agente individual. Outras, como autômatos celulares, não fazem essa distinção. A granularidade da simulação é frequentemente escolhida com base na praticidade e no objetivo específico.

Três Níveis de Análise
Indivíduos

Um indivíduo é uma única pessoa que possui qualidades, traços, crenças e experiências unicas. Simulações de indivíduos permitem perguntas altamente granulares: "Este indivíduo gostaria destes resultados de busca?" ou "Como este indivíduo reagiria a tratamentos experimentais?" Exemplos incluem filtragem colaborativa (GroupLens, Resnick et al., 1994) e Jury Learning (Gordon et al., 2022).

Grupos

Grupos são agregados de pessoas distinguidos por interação regular e interdependência — membros influenciam e são influenciados uns pelos outros. Simulações de grupos exploram como indivíduos se reúnem para exibir comportamentos coletivos: "Como resolver um conflito entre duas pessoas?" ou "Um grupo de crowdworkers pode cooperar com sucesso?"

Populações

Populações compartilham atributos comuns como área geográfica ou espécie. Simulações de populações exploram como uma população difere de outras através de estatísticas agregadas: "Democratas preferem uma certa política mais que Republicanos?" ou "Adultos mais velhos passam mais tempo lendo que gerações jovens?"

Agentes Generativos como Modelos Comportamentais

Trabalhos recentes que usam IA generativa para simular comportamentos humanos predominantemente adotam a abordagem de modelar populações. Isso acontece por duas razões: (1) avaliação mais acessível — podemos avaliar replicando estudos existentes de populações, e (2) ainda não está claro como construir um modelo de um indivíduo.

"Simulações no nível de população nos fornecem uma ferramenta poderosa. Mas simulações no nível de população precisam lidar com viés e estereotipagem." — Referindo-se a Wang, Morgenstern & Dickerson (2024): "Large language models cannot replace human participants because they cannot portray identity groups."

Diferentes Níveis, Diferentes Apostas

População: não granular o suficiente. Indivíduos: muito ruidoso. Grupos: podem nunca ser previsíveis. Entender o nível de granularidade que você quer simular é essencial para garantir que suas simulações produzam as respostas que você procura.

Ver Slides Originais (EN)

Unidade Quântica da Simulação

O agente individual é o bloco de construção fundamental. A escolha de como definir essa unidade determina que tipo de perguntas a simulação pode responder e em que nível de detalhe.

Convergência e Divergência

Método de avaliação proposto por Chang et al. (2024): redes sociais geradas por LLMs são estruturalmente realistas mas superestimam homofilia política. Verificar onde a simulação converge e diverge da realidade.

Vies em Simulações de População

LLMs não podem retratar grupos identitários de forma confiável (Wang et al., 2024). Simulações populacionais podem perpetuar estereótipos em vez de capturar a diversidade real dentro de grupos demográficos.

Filtragem Colaborativa

Técnica clássica de modelagem de indivíduos: se dois usuários concordam em um assunto, provavelmente concordarão em outros. Base de sistemas de recomendação como GroupLens (Resnick et al., 1994).

Obrigatório Park et al. - Social Simulacra (2022)

Criando protótipos populados para sistemas de computação social

Obrigatório Argyle et al. - Out of One, Many (2023)

Usando modelos de linguagem para simular amostras humanas — exemplo de simulação no nível de população

Opcional Wang, Morgenstern & Dickerson - Large language models cannot replace human participants because they cannot portray identity groups (2024)

Limitações críticas de LLMs na representação de grupos identitários

Esta aula introduz uma decisão de design fundamental: em que nível de granularidade simular? A resposta depende inteiramente da pergunta que você quer responder. Não existe nível "melhor" — cada um tem trade-offs claros.

Conexão com o contexto brasileiro: Para simular comportamento eleitoral no Distrito Federal, por exemplo, precisamos decidir se modelamos indivíduos (cada eleitor), grupos (comunidades, partidos) ou populações (demografias agregadas). A pesquisa eleitoral do projeto INTEIA trabalha nessa exata interseção. O alerta sobre vieses e especialmente relevante: LLMs treinados predominantemente em dados de países de língua inglesa podem não capturar nuances da cultura política brasileira.

Aplicação INTEIA Academy: Ao projetar sua simulação, comece pela pergunta que quer responder. Depois, identifique o nível de análise necessário. Finalmente, avalie se os dados disponíveis suportam esse nível de granularidade.

4

Arquiteturas Cognitivas

Aula 4 de Stanford CS222 — Da psicologia cognitiva às arquiteturas de agentes generativos

O que são "arquiteturas"?

Arquiteturas existem em muitos domínios: sistemas operacionais, hardware de computador, aprendizado por reforço (Sutton & Barto, 2018), Transformers (Vaswani et al., 2017), e arquiteturas cognitivas como SOAR e GOMS. Arquiteturas são tanto uma descrição de um sistema funcional quanto uma teoria. Elas não são uma receita passo a passo; em vez disso, oferecem uma perspectiva sobre como um sistema deve funcionar.

Breve História da Ciência Cognitiva

Allen Newell, com bacharelado em física por Stanford (1949) e doutorado na Carnegie Mellon sob Herbert Simon, é uma figura central. Ele co-criou o Logic Theorist (1955) — possivelmente o primeiro programa de IA da história, que provou 38 dos primeiros 52 teoremas do Principia Mathematica. Depois veio o General Problem Solver (1956), e finalmente Unified Theories of Cognition (1990), onde Newell argumenta por um conjunto de suposições gerais para modelos cognitivos que expliquem todos os aspectos da cognição.

"Observação inicial: acadêmicos em psicologia cognitiva começaram a propor que computadores processam informação de forma similar à mente humana. Podemos entender como a mente funciona ilustrando-a com arquiteturas cognitivas? Podemos criar agentes computacionais de propósito geral que resolvam tarefas humanas?"

Exemplos de Arquiteturas Cognitivas
SOAR (1983)

Iniciou como tese de doutorado de John Laird (com Newell e Rosenbloom). SOAR postula a Hipotese do Espaco de Problemas: todo comportamento orientado a objetivos pode ser representado como busca por um espaço de estados possíveis. A cada passo, um único operador é selecionado e aplicado ao estado atual do agente. A arquitetura SOAR se assemelha a de um computador.

Paralelo Histórico

Existe um paralelo fascinante entre o passado e o presente. Antes: "computadores processam informação como a mente humana". Hoje: "IA generativa codifica e gera comportamentos semelhantes aos humanos". Antes: podemos entender a mente com arquiteturas cognitivas? Hoje: podemos entender como pessoas formam comportamentos emergentes com agentes generativos?

Arquitetura dos Agentes Generativos

No mundo de Smallville, 25 agentes habitam uma cidade com cafes, casas, parques e faculdade. Isabella Rodriguez, dona do Hobbs Cafe, planeja uma festa de Dia dos Namorados. Os agentes planejam e executam comportamentos diários, suas ações impactam o ambiente (xícaras limpas, máquina de cafe ligada), e eles lembram de suas interações. Para aqueles nas comunidades de arquitetura cognitiva, essas novas arquiteturas são imediatamente reconhecíveis.

Agentes de Simulação vs Agentes Baseados em Ferramentas

A história se repete. Estamos vendo diferentes iterações dessas arquiteturas emergindo em agentes baseados em ferramentas como AutoGPT, Devin e Rabbit. A distinção entre agentes que simulam comportamento humano e agentes que executam tarefas é um tema que voltará em aulas futuras.

Ver Slides Originais (EN)

Arquitetura Cognitiva

Uma teoria dos mecanismos e estruturas fixas que fundamentam a cognição humana. Fatorar o que é comum entre diferentes comportamentos cognitivos é um passo significativo rumo a uma teoria unificada da cognição.

SOAR e Hipotese do Espaco de Problemas

Todo comportamento orientado a objetivos é uma busca por um espaço de estados. Um operador é selecionado e aplicado ao estado atual, podendo gerar mudanças internas ou ações externas. Inspirou a visão moderna de agentes.

Percepção-Ação em Agentes

O ciclo fundamental dos agentes generativos: perceber o ambiente (observar eventos), processar informação (memória, reflexão) e agir (planos, dialogos). Agentes baseados apenas em prompts não conseguem lembrar e fazer sentido de experiências.

Caricatura Estilizada

Arquiteturas cognitivas são uma caricatura estilizada da cognição humana — não pretendem ser uma copia exata, mas capturar os elementos essenciais que permitem comportamento inteligente.

Obrigatório Laird, Newell & Rosenbloom - SOAR: An architecture for general intelligence. Artificial Intelligence 33, 1-64 (1987)

O paper fundacional da arquitetura SOAR — base para entender arquiteturas cognitivas

Obrigatório Newell, A. - Unified Theories of Cognition. Harvard University Press (1990)

O argumento de Newell por uma teoria unificada da cognição — contexto histórico essencial

Opcional Anderson & Lebiere - The Atomic Components of Thought. Lawrence Erlbaum Associates (1998)

A arquitetura ACT-R — alternativa ao SOAR, também influente na IA moderna

Esta aula conecta o passado (arquiteturas cognitivas dos anos 1980-90) ao presente (agentes generativos com LLMs). O paralelo histórico é revelador: os mesmos questionamentos que motivaram SOAR e ACT-R agora motivam a pesquisa em agentes de IA. A diferença é que LLMs oferecem uma "CPU cognitiva" muito mais flexível.

Conexão com o contexto brasileiro: O conceito de arquiteturas cognitivas é fundamental para quem quer construir agentes que representem brasileiros de forma autêntica. Os ciclos de percepção-memória-ação precisam ser adaptados para contextos culturais específicos. Um agente simulando um servidor público brasileiro, por exemplo, precisaria de "memórias" sobre processos burocráticos, hierarquias institucionais e dinâmicas de poder específicas.

Aplicação INTEIA Academy: Esta aula fornece a base teórica para o Exercício Prático 1. Entender o ciclo percepção-memória-reflexão-planejamento-ação e essencial antes de implementar qualquer agente generativo.

5

Arquitetando Agentes Generativos

Aula 5 de Stanford CS222 — Implementação prática: memória, recuperação, reflexão e planejamento

Memory Stream (Fluxo de Memória)

O fluxo de memória é um banco de dados que mantem um registro completo da experiência do agente em linguagem natural. A partir dele, registros são recuperados conforme relevância para planejar ações e reagir ao ambiente. Registros são sintetizados recursivamente em reflexões de níveis cada vez mais altos que guiam o comportamento. Cada "objeto de memória" contem o timestamp da criação.

Desafio da Memória

O fluxo de memória completo pode distrair o modelo generativo e não cabe na janela de contexto limitada. A solução é recuperar apenas uma porção selecionada da experiência do agente usando uma função de recuperação.

Função de Recuperação (Retrieval)

A função de recuperação usa três fatores combinados: Recência (decaimento exponencial — memórias mais recentes tem maior peso), Importância (score de 0 a 100 para cada memória) e Relevância (similaridade de cosseno entre embeddings da query e da memória). A fórmula é: retrieval_score = alpha1 * recência + alpha2 * importância + alpha3 * relevância.

Reflexão (Reflection)

Agentes generativos equipados apenas com memória observacional bruta lutam para generalizar ou fazer inferências. Reflexoes são pensamentos de nível mais alto e abstrato gerados pelo agente e armazenados no fluxo de memória. São sintetizadas periodicamente a partir dos 100 registros mais recentes. Com o tempo, agentes geram árvores de reflexões: nós-folha são observações, e nós internos são pensamentos progressivamente mais abstratos.

"Nós lembramos e fazemos sentido de nossas experiências. Agentes baseados apenas em prompts não conseguem fazer isso."

Planejamento e Reação (Planning and Reacting)

Enquanto um LLM pode gerar comportamento plausível em resposta a informação situacional, agentes precisam planejar em horizontes temporais mais longos. Planos descrevem uma sequência futura de ações incluindo local, horário de início e duração. A abordagem começa top-down e depois gera recursivamente mais detalhes: primeiro grandes blocos, depois horários, depois intervalos de 5-15 minutos. Agentes percebem o ambiente e determinam se precisam reagir e editar seus cronogramas.

Implementação Prática (Assignment 1)

Na implementação: classe ConceptNode para objetos de memória, classe MemoryStream para o fluxo, geração de scores de importância, cálculos de similaridade de cosseno com embeddings, e implementação da função "remember". O exercício prático pede para implementar as partes centrais da função de recuperação e função de chat com alguma engenharia de prompts.

Ver Slides Originais (EN)

Memory Stream

Banco de dados de linguagem natural com todas as experiências do agente. Cada entrada tem timestamp e é a base para recuperação, reflexão e planejamento. Funciona como a "memória episódica" humana.

Função de Recuperação

Combina recência (exponencial), importância (0-100) e relevância (cosseno). Seleciona as memórias mais pertinentes para o contexto atual, resolvendo o problema da janela de contexto limitada dos LLMs.

Arvore de Reflexoes

Estrutura hierárquica onde observações são folhas e reflexões são nós internos progressivamente mais abstratos. Permite ao agente raciocinar sobre padrões, valores e objetivos de longo prazo.

Planejamento Hierarquico

Abordagem top-down: primeiro grandes blocos de atividades, depois detalhamento por hora, finalmente intervalos de 5-15 minutos. Cada nível refina o anterior, gerando agendas realistas e coerentes.

Obrigatório Park et al. - Generative Agents: Interactive Simulacra of Human Behavior (2023)

O PAPER FUNDAMENTAL DO CURSO — Detalhes da arquitetura de agentes generativos e Smallville

Obrigatório Sumers et al. - Cognitive Architectures for Language Agents (2024)

Framework conceitual moderno para arquiteturas de agentes de linguagem

Opcional Ostrom, E. - Governing the Commons (1990)

Referenciado na aula a propósito do uso compartilhado de créditos de API — tema de bens comuns

Esta é a aula mais "mao na massa" até aqui. O professor Joon Sung Park detalha a implementação real dos componentes de um agente generativo. É aqui que a teoria encontra o código.

Conexão com o contexto brasileiro: A função de recuperação (retrieval) é especialmente importante quando construímos agentes que representam brasileiros. As memórias precisam ser culturalmente situadas — um agente simulando um morador de Brasília precisaria de memórias sobre quadras, Lago Paranoá, dinâmicas do funcionalismo público. O peso dado a "importância" vs "recência" pode variar culturalmente.

Aplicação INTEIA Academy: Este módulo é a base para o Exercício Prático 1. Os alunos implementarão a função de recuperação, o score de importância e o fluxo de memória. Dediquem tempo extra aqui — estes conceitos retornam em todos os módulos seguintes.

Exercício Prático 1: Criando Agentes Generativos — Implementação de Memory Stream, função de recuperação e chat
6

Mundos Interativos

Aula 6 de Stanford CS222 — O ambiente é tão importante quanto os agentes

O que é um Ambiente em Simulações de Agentes?

Um ambiente é a descrição das configurações que os agentes percebem para tomar ações. Pode ser uma pesquisa (survey), um chat, ou um mundo inteiro. Simulações envolvem uma interação entre agentes e seus ambientes: W(t) = (S_E(t), S_A1(t), ..., S_AN(t)). A "precisão" de uma simulação é tanto função dos agentes quanto do ambiente.

Por que o Ambiente Importa?
Estudo de Caso 1: Experimento Music Lab

Salganik, Dodds & Watts (2006) mostraram que aumentar a força da influência social aumentou tanto a desigualdade quanto a imprevisibilidade do sucesso. As melhores musicas raramente iam mal, e as piores raramente iam bem, mas qualquer outro resultado era possível. Isso demonstra como o ambiente (a presença de informação social) muda radicalmente o comportamento.

Estudo de Caso 2: Curtidas em Redes Sociais

Agentes generativos são excessivamente ansiosos para curtir conteúdo e fazer compras. Richard Thaler (Nobel 2017) introduziu o conceito de "contabilidade mental": pessoas categorizam dinheiro em diferentes "contas mentais" e gastam de forma diferente dependendo da conta. Um bom ambiente de simulação apresenta o conjunto correto de escolhas aos agentes, incluindo custos de oportunidade em capital social, orçamento, energia emocional/mental.

Ambientes em Simulações Pre-IA Generativa

Modelo de segregação de Schelling: essencialmente um mundo em grade de pontos vermelhos e azuis, onde agentes "percebem" seus quadrados vizinhos. Teoria dos jogos: cenários abstratos onde prisioneiros decidem confessar ou não. Estes ambientes estilizados funcionam para agentes tradicionais que simplificam contingências humanas, mas podem não permitir aproveitar efetivamente agentes generativos que buscam incorporar a complexidade total do comportamento humano.

Tipos de Ambientes para Agentes Generativos

Pesquisas/surveys (Argyle et al., 2023), experimentos (Ashokkumar et al., 2024; Horton, 2023), ambientes conversacionais como Roleplay-doh (Louie et al., 2024) e Rehearsal (Shaikh et al., 2024), e mundos completos como Smallville, ChatDev, DiscoveryWorld e Agent Hospital. O Smallville usa um scene graph simples como representação, e decidir para onde ir e uma tarefa de classificação recursiva.

Limitações e Direções Futuras

Nossos ambientes virtuais ainda são estilizados e simplificados comparados ao mundo real. E se lojas, banheiros e escolas não existissem em Smallville? Como agentes navegam sem carros? Alguns ambientes são intensivos em recursos. Encontrar o esquema ou estrutura correto para descrever o ambiente de simulação é um tópico de pesquisa importante — e ainda não temos resposta.

"Redes podem ser o ambiente para simulações? Redes são flexíveis e exibem fenômenos emergentes e equilíbrios. Podemos gerar redes sociais estruturalmente realistas com LLMs — embora superestimem homofilia política." — Chang et al. (2024)

Uma outra direção: gerar o mundo da mesma forma que geramos comportamentos de agentes, como no projeto Genie (Bruce et al., 2024) de ambientes interativos generativos.

Ver Slides Originais (EN)

Contabilidade Mental

Conceito de Thaler (Nobel 2017): pessoas categorizam recursos em "contas" diferentes e gastam de forma irracional dependendo da categoria. Agentes devem enfrentar custos de oportunidade realistas, não apenas escolhas binárias.

Scene Graph

Representação do ambiente de Smallville como grafo de cena hierárquico. Permite que agentes "naveguem" decidindo recursivamente em que nível do grafo se posicionar (cidade > bairro > predio > sala > objeto).

Redes como Ambientes

Redes sociais são candidatas naturais a ambientes de simulação. Nos representam indivíduos, links representam relações. Exibem fenômenos emergentes como "preferential attachment" (Barabasi & Albert, 1999).

Desiderata de Ambientes

Dois requisitos: (1) Rico e preciso — codificar as complexidades do mundo real; (2) Escalável — facilmente escalável para simular 8 bilhões de pessoas. Esses requisitos estão em tensão.

Obrigatório Salganik, Dodds & Watts - Experimental Study of Inequality and Unpredictability in an Artificial Cultural Market. Science 311, 854-856 (2006)

Experimento clássico mostrando como influência social altera radicalmente resultados culturais

Obrigatório Thaler, R. - Mental Accounting and Consumer Choice. Marketing Science 4, 199-214 (1985)

Contabilidade mental — essencial para entender por que ambientes precisam apresentar custos de oportunidade realistas

Opcional Granovetter, M.S. - The Strength of Weak Ties. American Journal of Sociology 78, 1360-1380 (1973)

Artigo clássico sobre redes sociais e a importância dos laços fracos

Insight-chave desta aula: a "precisão" de uma simulação não depende apenas dos agentes — depende igualmente do ambiente. Um agente perfeito em um ambiente empobrecido produzirá resultados empobrecidos. O conceito de "contabilidade mental" de Thaler e crucial: sem custos de oportunidade realistas, agentes se comportam de forma irrealista.

Conexão com o contexto brasileiro: Para simular eleitores brasileiros, o "ambiente" precisa incluir elementos como redes sociais (WhatsApp e especialmente relevante no Brasil), mídia tradicional, conversa informal na padaria, influência religiosa, e estruturas de poder local. Um ambiente que só inclui Twitter/X não captura a realidade da disseminação de informação no Brasil.

Aplicação INTEIA Academy: Ao projetar ambientes de simulação, considere: que escolhas os agentes enfrentam? Quais são os custos de oportunidade? O ambiente é rico o suficiente para permitir comportamento emergente, mas simples o suficiente para ser computacionalmente viável?

7

Credibilidade vs Precisão

Aula 7 de Stanford CS222 — Ilusão de vida versus predição acurada do futuro

Agentes e Simulações Críveis (Believable)

A aula começa com uma reflexão sobre onde a arte e as histórias encontram seu poder. A resposta vem da animação Disney: "A animação Disney faz audiências realmente acreditarem em... personagens cujas aventuras e infortunios fazem as pessoas rir — e até chorar. Há um ingrediente especial em nosso tipo de animação que produz desenhos que parecem pensar e tomar decisões por vontade própria; e o que cria a ilusão de vida." (Thomas & Johnston, 1981)

"Agentes críveis são projetados para criar a ilusão de vida. Credibilidade. Era isso que buscávamos... crenca na vida dos personagens." — Bates (1994), The Role of Emotion in Believable Agents

Como Medir Credibilidade?

Historicamente, o Teste de Turing (1950) foi a referência. Os modelos baseados em agentes tradicionais (como Schelling) não eram avaliados por credibilidade. Já os agentes generativos de Smallville foram avaliados com base em essencialmente um "teste de Turing comportamental" — humanos avaliaram se os comportamentos pareciam humanos sem saber que eram gerados por IA.

Aplicações de Agentes Críveis

Agentes críveis podem alimentar jogos e narrativas (The Sims, Minecraft), "companheiros de IA" (Replika, Character.aí) e espaços de ensaio — tanto para pessoas praticarem situações difíceis (Roleplay-doh para pacientes simulados, Rehearsal para resolução de conflitos) quanto para agentes treinarem entre si (Agent Hospital).

Ponto Importante

Agentes de simulação não precisam necessariamente buscar nossa "visão idealizada de inteligência". Ênfase em reatividade pode ser mais importante que inteligência geral. Agentes críveis oferecem uma ilusão de vida — mas ainda são apenas simulacros plausíveis.

Agentes e Simulações Precisos (Accurate)

Simulações precisas são predições do futuro. O desafio está tanto na construção quanto na avaliação. O esquema geral de avaliação e: coletar dados reais (ground-truth) e verificar se a simulação os replica.

Desafios de Avaliação por Nível
  • Individual: natureza aberta (em qual eixo avaliar?), inconsistência do comportamento individual
  • Grupo: dinâmicas complexas (alguns acreditam que não e possível)
  • População: as vezes falta ground truth; se replicando estudos conhecidos, o modelo pode ter memorizado o estudo

Podemos prever estudos ainda não incluídos nos datasets dos modelos de linguagem? A pesquisa de Ashokkumar et al. (2024) sugere que sim. Estado da arte: nível de população funciona, nível individual e incerto, nível de grupo é a grande questão em aberto.

"A medida que simulações se tornam mais precisas, isso não necessariamente significa que se tornam mais críveis. Uma simulação precisa precisa fornecer a ilusão de vida através de emoções? Talvez sim, talvez não."

Ver Slides Originais (EN)

Credibilidade (Believability)

A capacidade de um agente criar a "ilusão de vida" — parecendo pensar, sentir e agir por vontade própria. Herdada das artes (animação, teatro) e formalizada por Bates (1994). Avaliada por percepção humana, não por métricas objetivas.

Precisão (Accuracy)

A capacidade de uma simulação de prever resultados reais. Avaliada contra ground-truth data. Muitos wicked problems requerem simulações precisas, não apenas críveis. Mas avaliação é fundamentalmente difícil.

Espacos de Ensaio (Rehearsal Spaces)

Aplicação prática de agentes críveis: simular pacientes para treinar médicos (Roleplay-doh), simular conflitos para ensinar resolução (Rehearsal), simular hospitais inteiros para treinar agentes médicos (Agent Hospital).

Teste de Turing Comportamental

Avaliação de agentes generativos onde humanos julgam se comportamentos são de agentes ou pessoas reais. Extensão do teste original de Turing (1950) para comportamento, não apenas conversação.

Obrigatório Bates, J. - The Role of Emotion in Believable Agents. Communications of the ACM 37, 122-125 (1994)

O artigo fundacional sobre agentes críveis — conecta artes performáticas com IA

Obrigatório Ashokkumar et al. - Predicting Results of Social Science Experiments Using Large Language Models (2024)

Evidência de que LLMs podem prever resultados de estudos não incluídos em seus dados de treino

Opcional Thomas, F. & Johnston, O. - Disney Animation: The Illusion of Life. Abbeville Press (1981)

O clássico da animação Disney que inspira o conceito de "ilusão de vida" em agentes de IA

A distinção entre credibilidade e precisão é central para toda a área. Não são a mesma coisa, e não necessariamente andam juntas. Um agente pode ser extremamente crível (parece real) mas impreciso (não prevê comportamento real), e vice-versa. Saber qual você precisa depende da sua aplicação.

Conexão com o contexto brasileiro: Para projetos de "ensaio" de políticas públicas (ex: simular reação de comunidades a uma nova política educacional), precisamos de PRECISÃO. Para jogos educacionais ou treinamento de profissionais de saúde, credibilidade pode ser suficiente. O projeto de pesquisa eleitoral da INTEIA precisa prioritariamente de precisão — não basta que agentes "parecam" eleitores brasileiros, eles precisam se comportar como tais.

Aplicação INTEIA Academy: Ao avaliar suas simulações no projeto final, defina claramente se está buscando credibilidade, precisão, ou ambos. Justifique por que seu wicked problem requer um ou outro.

8

Modelos de Indivíduos e AgentBank

Aulas 8-9 de Stanford CS222 — Modelando pessoas reais e construindo um banco de agentes

Aula 8: Modelos de Indivíduos

A observação central: os modelos de comportamento humano de hoje são frequentemente criados no nível de população (moderação de conteúdo, robótica, diagnóstico medico, filtragem de spam). Enquanto modelos de população preveem o comportamento médio de uma população, modelos de indivíduos preveem o comportamento de uma pessoa específica. Isso abre oportunidades genuinamente novas.

Desafio 1: Dados esparsos

Criar um modelo eficaz requer grande quantidade de dados. Hoje, coletamos esses dados da web (no nível de população). Porém, dados sobre indivíduos são, por definição, muito mais escassos. Não temos terabytes de dados sobre uma única pessoa.

Desafio 2: Indivíduos são inconsistentes

Medições de comportamento individual podem ser repletas de inconsistências devido a instabilidade inerente dos indivíduos e erros de medição. "Regressão a media" não se aplica a modelos de indivíduos — uma pessoa pode mudar radicalmente de opinião de um dia para outro.

Modelos Historicos de Indivíduos

O esquema geral: criar um modelo central que representa uma população, depois ajustar rapidamente componentes desse modelo para descrever indivíduos. Exemplos incluem filtragem colaborativa/sistemas de recomendação (GroupLens, Resnick et al., 1994), Jury Learning (Gordon et al., 2022 — modela cada rotulador individual e realiza N julgamentos), e testes de personalidade como Big Five (John & Srivastava, 1999).

Como Criar Modelos de Indivíduos com LLMs

Ideia: usar um LLM como modelo central. O LLM então interpreta (roleplay) uma pessoa específica com base em informações fornecidas sobre aquele indivíduo. A pergunta-chave: que informação descreveria uma pessoa de forma mais holística e eficaz?

"Atividade de classe: Grupo 1 — Imagine que conheceu alguém novo. O que você perguntaria para conhecê-lo em 30 minutos? Grupo 2 — Que fatos sobre você são mais significativos para descrevê-lo como pessoa?"

Aula 9: AgentBank-CS222

Com base na sessão de brainstorming, a equipe do curso criou um roteiro de entrevista e a Pesquisa CS222. Na atividade prática, alunos se entrevistaram mutuamente seguindo o roteiro, criando perfis detalhados que foram usados para construir agentes simulados de cada aluno — o AgentBank-CS222. Esta atividade conecta diretamente a teoria de modelos de indivíduos com a prática de construir agentes que representam pessoas reais.

Slides Aula 8 (EN) Slides AgentBank (EN)

Modelo de Indivíduo vs População

Modelos de população preveem comportamento médio. Modelos de indivíduos preveem comportamento de uma pessoa específica. A transição de um para outro é o grande desafio: dados escassos, inconsistência individual, ausência de "regressão a media".

AgentBank

Banco de agentes construído a partir de entrevistas reais com pessoas. Cada agente é um perfil detalhado que permite ao LLM interpretar (roleplay) aquela pessoa em simulações. Conceito análogo ao genoma humano para simulações sociais.

Jury Learning

Arquitetura de Gordon et al. (2022) que modela cada rotulador individual em um dataset e realiza N julgamentos amostrando "jurados". Permite integrar vozes dissidentes em modelos de aprendizado de máquina.

Big Five / Cinco Grandes

Modelo de personalidade que classifica traços em 5 dimensões (abertura, conscienciosidade, extroversão, amabilidade, neuroticismo). Baseado em observação fundamentada. Um dos modelos usados para descrever indivíduos para LLMs.

Obrigatório Lundberg et al. - The origins of unpredictability in life outcome prediction tasks. PNAS 121 (2024)

Por que prever resultados individuais é fundamentalmente difícil — limites da previsibilidade

Obrigatório Gordon et al. - Jury Learning: Integrating Dissenting Voices into Machine Learning Models. CHI 2022

Modelo que integra perspectivas individuais divergentes — abordagem inovadora para modelar diversidade

Opcional John & Srivastava - The Big Five trait taxonomy. Handbook of Personality (1999)

Taxonomia dos Cinco Grandes traços de personalidade — modelo psicológico usado para descrever indivíduos

Estas duas aulas são o coração prático do curso. A atividade do AgentBank — onde alunos de Stanford se entrevistaram para criar agentes de si mesmos — é exatamente o tipo de exercício que queremos replicar na INTEIA Academy. A pergunta "que informação descreve uma pessoa de forma holística?" não tem resposta única e depende do contexto cultural.

Conexão com o contexto brasileiro: Para criar um AgentBank de brasileiros, as perguntas de entrevista precisam ser culturalmente adaptadas. Religião, família extensa, relação com a comunidade, posição socioeconômica, região de origem — esses fatores podem ser mais determinantes no Brasil que nos EUA. O projeto de pesquisa eleitoral da INTEIA planeja criar exatamente isso: um banco de agentes representando eleitores do Distrito Federal.

Aplicação INTEIA Academy: Este módulo conecta-se diretamente ao Exercício Prático 2. Os alunos criarão seus próprios perfis de agente e conduzirão entrevistas para construir um mini-AgentBank da turma.

Exercício Prático 2: Interação Multi-Agente e construção de AgentBank
9

Modelos Generativos Baseados em Agentes

Aulas 10-12 de Stanford CS222 — GABM, equilíbrios, efeito borboleta e linguagem de simulações

Aula 10: Modelos Generativos Baseados em Agentes (GABM)

Modelos baseados em agentes (ABM) estudam a interação entre agentes individuais. A aula introduz o conceito de GABM — a combinação de agentes generativos com a estrutura clássica de ABM. Em uma demonstração prática, alunos descreveram suas "personas" que foram usadas para construir agentes simulados. Esses agentes foram colocados em uma sala virtual para decidir quem seria seu líder — uma simulação de votação em tempo real.

Questões Éticas do AgentBank

A aula traca um paralelo entre o sequenciamento do genoma humano e bancos de agentes. Quem são os donos dos seus agentes? Questões de propriedade intelectual (greve de roteiristas de Hollywood contra IA generativa), fantasmas generativos (Morris & Brubaker, 2024 — agentes de IA de pessoas falecidas), e a necessidade de consentimento informado.

Aula 11: Equilíbrios e Borboletas

Sistemas complexos são compostos por muitos componentes interconectados que interagem de formas dinâmicas e não-lineares, produzindo comportamentos coletivos difíceis de prever. Estamos cercados por sistemas complexos: na natureza (órbitas planetárias, formações de nuvens, ondas oceânicas, bandos de pássaros, ritmos cardíacos) e na vida social (movimentos sociais, comportamento do consumidor, crescimento urbano, conteúdo viral, crashes de mercado, engarrafamentos fantasma).

"Caos e prevalente em sistemas complexos: pequenas variações nas condições iniciais de um sistema podem levar a resultados vastamente diferentes, a ponto de o resultado parecer aleatório."

Equilíbrio em Sistemas Complexos

Equilíbrios são estados em que um sistema permanece balanceado. Equilíbrios de Nash referem-se a situações em que cada jogador escolheu uma estratégia e ninguem pode se beneficiar mudando sua estratégia enquanto os outros mantem as suas. Exemplos clássicos:

  • Dilema do Prisioneiro: Ambos confessam (equilíbrio de Nash), mesmo que o silencio mutuo seria melhor
  • Pedra-Papel-Tesoura: Equilíbrio = escolha aleatoria com probabilidade 1/3 cada
  • Jogo de Bens Públicos: Ninguem contribui se acredita que outros não contribuirao (problema do carona)

Estudos de caso: normas sociais (filas, saudações), polarização política (Fiorina & Abrams, 2008), e redes scale-free (Barabasi & Albert, 1999). Equilíbrios em sistemas complexos são frequentemente instáveis — nações sobem, caem e sobem novamente. Bolhas econômicas são equilíbrios instáveis que estouram com pequenos gatilhos.

Insight Central

"Enquanto LLMs servirão como CPUs cognitivas, simulações funcionarao como GPUs cognitivas na era da IA generativa. Os grandes desafios da nossa geração não requerem uma unidade de raciocinio central complexa. Requerem unidades cognitivas relativamente simples que se juntam para formar fenômenos complexos."

Aula 12: Linguagem e Schema de Simulações

A representação correta muda tudo. O professor usa o exemplo do "Number Scrabble" de Simon (1988): um jogo abstrato de números que parece difícil, mas quando representado como um tabuleiro de jogo-da-velha, torna-se trivial. A lição: a representação amplifica a cognição.

"Os poderes da cognição vem de abstração e representação: a capacidade de representar percepções, experiências e pensamentos em algum meio diferente daquele em que ocorreram, abstraidos de detalhes irrelevantes." — Norman (1994) e Simon (1981)

Linguagens e schemas oferecem um ponto de vista. Exemplos historicos: SQL (manipulação dinâmica de dados por não-especialistas), HTML5 (suporte a multimidia e telas diversas), esquema de aprendizado por reforço (agente-ambiente-recompensa). Para simulações, precisamos de representações que padronizem a implementação de ambientes e congelem arquiteturas e memórias de agentes. O repositório do Assignment 1 oferece um ponto de vista: AgentBank, Agente Generativo, Respostas (categoricas, numericas, livres) e Ambientes (pesquisa, entrevista, rede).

Slides GABM (EN) Equilibria & Butterflies (EN) Language & Schema (EN)

GABM (Generative Agent-Based Model)

Combinação de agentes generativos (baseados em LLMs) com a estrutura clássica de modelos baseados em agentes. Permite simulações abertas onde agentes interagem de formas não predefinidas, gerando fenômenos emergentes.

Equilíbrio de Nash

Estado em que nenhum jogador pode melhorar seu resultado mudando unilateralmente de estratégia. Em simulações sociais, equilíbrios emergem de interações repetidas entre agentes e podem ser estáveis ou instáveis.

Efeito Borboleta / Caos

Pequenas variações nas condições iniciais levam a resultados radicalmente diferentes. Implicação para simulações: precisamos rodar múltiplas vezes e analisar distribuições de resultados, não resultados únicos.

Amplificação Cognitiva

Conceito de Norman/Simon: a representação correta nos torna mais inteligentes. Para simulações, isso significa que linguagens e schemas bem projetados não são apenas conveniência — são fundamentais para produzir insights.

CPU Cognitiva vs GPU Cognitiva

Conjectura de Joon Sung Park: LLMs são CPUs cognitivas (raciocinio central complexo). Simulações são GPUs cognitivas (muitas unidades simples em paralelo). Wicked problems requerem GPUs, não CPUs maiores.

Schema de Simulação

Estrutura padronizada para descrever simulações: AgentBank (banco de perfis), Agente (arquitetura + memórias), Respostas (tipos de output), Ambiente (tipos de interação). Analogos a SQL para bancos de dados.

Obrigatório Morris, M.R. & Brubaker, J.R. - Generative Ghosts: Anticipating Benefits and Risks of AI Afterlives. Preprint (2024)

Riscos e beneficios de agentes de IA representando pessoas falecidas — questões éticas profundas

Obrigatório Nash, J.F. - Non-cooperative games. Annals of Mathematics 54, 286-295 (1951)

O artigo fundacional sobre equilíbrios de Nash — base teórica para entender resultados de simulações multi-agente

Opcional Simon, H.A. - The Sciences of the Artificial. MIT Press (1981)

Classico sobre design e representação — fundamento da discussão sobre linguagem de simulações

Opcional Bostock, Ogievetsky & Heer - D3: Data-Driven Documents. IEEE TVCG (2011)

Exemplo de linguagem de visualização bem-sucedida — modelo para linguagens de simulação

Este módulo cobre três aulas densas que representam a fronteira do campo. A analogia CPU/GPU é provocativa: não precisamos de um modelo de linguagem maior para resolver wicked problems — precisamos de muitos agentes simples interagindo. O professor confessa abertamente: "Eu ensinei tudo que eu (e o campo) sei. Hoje compartilho minhas conjecturas sobre para onde estamos indo."

Conexão com o contexto brasileiro: A teoria dos jogos e equilíbrios de Nash são diretamente aplicáveis a simulação de dinâmicas políticas brasileiras. O "dilema do prisioneiro" aparece em coalizoes políticas; o "jogo de bens públicos" aparece em políticas ambientais para a Amazônia. A ideia de linguagens e schemas padronizados é relevante para criar ferramentas que democratizem o acesso a simulações — algo especialmente importante em um país com recursos de pesquisa limitados comparado a Stanford.

Aplicação INTEIA Academy: Ao projetar simulações multi-agente, lembrem-se do efeito borboleta: rodem múltiplas vezes, analisem distribuições, não confiem em um único resultado. A linguagem/schema que vocês escolherem para descrever seus agentes e ambientes determinará o que é possível descobrir.

10

Ética, Limitações e o Futuro

Aulas 13-14 de Stanford CS222 — Limitações fundamentais e visão de futuro (1 a 32 anos)

Aula 13: Ética e Limitações (por Helena Vasconcelos e Carolyn Zou)

A aula segue um roteiro em 5 etapas do pipeline de simulação, cada uma com questões éticas e limitações próprias:

1. Treinamento de LLMs

Modelos são treinados com dados da web, dados de QA, dados de preferência (RLHF). O ponto central: esses modelos NÃO são otimizados para agir como pessoas. O salto do GPT-3 para o ChatGPT (instruction tuning) tornou o sistema "semelhante a humano" — mas sempre seguindo instruções, sempre sabendo a "resposta", sempre sendo amigável. Isso é fundamentalmente diferente de como humanos reais se comportam.

2. Dados de Treinamento

Fontes de dados limitam o que podemos fazer. Tarefas que emulam dinâmicas online ou são "baseadas em conhecimento" funcionam melhor (mais próximas dos dados de treino). Tarefas que requerem dinâmicas físicas não se traduzem bem do paradigma LLM.

3. Inferência (Running Inference)

Três comportamentos únicos de modelos de linguagem tornam perigoso usar metáforas de comportamento humano: Sensibilidade a prompts (reescrever o prompt preservando semântica muda os resultados), Estocasticidade (distribuições de tokens preditos podem diferir da frequência real de comportamento humano), Memorização (versões canônicas de estímulos produzem melhores resultados que versões reformuladas — ex: o teste de seleção de Wason com vogais/pares tem 75% de acerto, mas com consoantes/ímpares cai para 9%).

4. Validação

Credibilidade não é igual a precisão. Como validar comportamentos que queremos que agentes emulem? O próximo passo razoável e replicação de achados confiáveis e conhecidos. Mas como validar coisas completamente novas? Exemplo: o estudo do Facebook sobre feed de notícias — resultados contra-intuitivos difíceis de validar. A solução proposta (Vasconcelos & Zou et al., 2024): "inspeção local" — verificar se padrões conhecidos de comportamento humano aparecem no nível dos agentes, não dos resultados globais.

"Como não há validação sem ground truth, modelagem generativa baseada em agentes tem ameaças a validade epistêmica. Porém, simulações podem ser úteis! Então, o que podemos fazer?" — Vasconcelos & Zou et al. (2024)

5. Confiança (Reliance)

Apos validação, quanto confiar? O problema da sobre-confiança (overreliance): pessoas concordam com IA mesmo quando ela está errada. Mesmo com métodos de validação e diretrizes de confiança epistêmica, simulações podem ser mal-usadas ou mal-interpretadas. A credibilidade dos agentes cria novos riscos sociotécnicos via erros interpretativos. Recomendações: escolher o nível correto de abstração, perturbar decisões de design, usar metáforas cognitivas com propósito, rastrear proveniência dos dados.

Aula 14: Simulando Nos Mesmos e Nossas Sociedades com IA

A aula final resume os 8 pontos centrais do curso e projeta o futuro do campo:

Resumo do Curso em 8 Pontos
  1. Simulações definem um ambiente para indivíduos e produzem suas interações
  2. IA generativa cria oportunidade para simulações mais abertas
  3. A promessa é enfrentar wicked problems
  4. Comece escolhendo o nível de análise
  5. Construa agentes individuais e seus ambientes
  6. Avalie por credibilidade e capacidade de prever fenômenos conhecidos
  7. Estabeleça fundamentos científicos (ex: agent banks) para confiar em simulações de mundos nunca vistos
  8. Isso promete ajudar a enfrentar wicked problems difíceis demais para abordar hoje
Visão de Futuro: 1 a 32 Anos
Ano 1: Fundação Científica e Modelos de Indivíduos

O campo está trabalhando para estabelecer uma fundação científica. Quais são os blocos de construção corretos? Como construir simulações robustas? Como determinar se uma simulação e falha?

Ano 2: Modelos de Interações

Começaremos a explorar mais seriamente a construção e avaliação de interações entre agentes — blocos necessários para GABM com múltiplos agentes.

Ano 4: Fusão de Agentes de Ferramentas e Agentes de Simulação

Atualmente há uma divergência sutil entre agentes baseados em ferramentas (automação de tarefas) e agentes de simulação (previsão de interações). O ingrediente central para avançar agentes de ferramentas e a simulação. Ambas abordagens terão "amadurecido" o suficiente para uma convergência séria.

Ano 8: Simulações Societárias

Simulações semi-grandes (1 milhão de agentes) se tornarao viáveis. Se o campo ganhar um Prêmio Nobel, o trabalho catalítico provavelmente emergira nesta epoca.

Ano 16: Simulação como Plataforma de Computação

IA e simulações não serão mais "novidades" — serão fatos da vida. Simulações multi-agente com muitos modelos menores serão mais poderosas que um único modelo grande, especialmente para problemas científicos e wicked problems.

Ano 32: Multiverso

Simulação será a "killer application" da IA — e se tornará uma plataforma em si mesma. Aplicações construidas sobre simulação usarao nossa capacidade de criar inúmeros multiversos para nos ajudar a navegar nosso futuro.

"Onde um grande modelo central funcionará como uma CPU, simulações desempenharão o papel de uma GPU." — Joon Sung Park, Aula 14

Ethics & Limitations (EN) Future of Simulations (EN)

Inspeção Local

Método de Vasconcelos & Zou et al. (2024): validar simulações verificando padrões comportamentais conhecidos no nível dos agentes individuais, não nos resultados globais. Permite descartar simulações falhas mesmo sem ground truth para o resultado final.

Sobre-confiança (Overreliance)

Quando pessoas concordam com IA mesmo quando ela está errada. Demonstrado em múltiplos estudos empíricos (Bansal et al. 2021, Bucinca et al. 2021). Particularmente perigoso em simulações sociais onde resultados críveis podem não ser precisos.

Validade Epistemica

Grau de confiança que devemos ter nos resultados de simulações. Sem ground truth, GABM tem ameaças inerentes a validade epistêmica. Aplicações ideais são aquelas que requerem baixa confiança epistêmica e não tem alternativas.

Sensibilidade a Prompts / Memorização

LLMs são sensíveis a reformulações de prompts e podem ter memorizado estudos famosos. Isso cria falsos positivos em replicações. Estratégias: perturbar prompts, iterar múltiplas vezes, usar versões não-canônicas de estímulos.

Obrigatório Vasconcelos, Zou et al. - Epistemic validity in generative agent-based simulations (2024)

Framework de validação por inspeção local — como ganhar confiança em simulações com resultados novos

Obrigatório Dillon, Tandon, Gu & Gray - Can AI language models replace human participants? Trends in Cognitive Sciences 27 (2023)

Análise crítica sobre se LLMs podem substituir participantes humanos em pesquisa

Opcional Binz & Schulz - Using cognitive psychology to understand GPT-3. PNAS 120 (2023)

Demonstração de memorização em LLMs usando testes cognitivos clássicos

Opcional Vasconcelos et al. - Explanations Can Reduce Overreliance on AI Systems During Decision-Making (2023)

Como explicações podem reduzir sobre-confiança em sistemas de IA

Este módulo final e simultaneamente o mais cauteloso e o mais visionário do curso. A Aula 13, ministrada pelas assistentes Helena Vasconcelos e Carolyn Zou, é um banho de realidade necessário: LLMs não são pessoas, dados de treinamento limitam resultados, memorização cria falsos positivos, e sobre-confiança é um risco real. A Aula 14, com Joon Sung Park, projeta um futuro ambicioso — simulação como plataforma computacional em 32 anos.

Conexão com o contexto brasileiro: As limitações discutidas são amplificadas no contexto brasileiro. LLMs são treinados predominantemente em dados de países de língua inglesa, com sub-representação de contextos brasileiros. A sensibilidade a prompts pode ser ainda maior quando traduzimos ou adaptamos prompts entre línguas. Para a pesquisa eleitoral da INTEIA, a recomendação de inspeção local é especialmente pertinente: antes de confiar em previsões eleitorais simuladas, precisamos verificar se os agentes reproduzem padrões de comportamento eleitoral brasileiro conhecidos (ex: voto regional, influência evangélica, antipetismo/antilulismo).

Aplicação INTEIA Academy: A tabela de "aplicações apropriadas" é um guia prático valioso. Simulações são mais seguras quando (1) requerem baixa confiança epistêmica e (2) alternativas não existem. No contexto brasileiro, simulação de resposta a políticas públicas antes de implementação se encaixa perfeitamente nesse quadrante. Use o framework de 5 etapas (treinamento, dados, inferência, validação, confiança) como checklist para todo projeto de simulação.

Cronograma do Curso

Semana Tópico Descrição Entregas
1 Introdução História das simulações: autômatos celulares, teoria dos jogos, ABM, e a revolução da IA generativa Leituras
2 Problemas Complexos Wicked problems, micromotivos/macrocomportamentos, aplicações de simulações Leituras
3 Níveis de Simulação Indivíduos vs populações, Social Simulacra, "Out of One, Many" Leituras
4 Arquiteturas Cognitivas SOAR, ACT-R, limitações, transição para LLMs Leituras
5 Agentes Generativos Memória, recuperação, reflexão, planejamento - O paper fundamental Exercício 1
6 Mundos Interativos Ambientes de interação, redes sintéticas, role-play Leituras
7 Validação Credibilidade vs precisão, métricas, validação estatística Leituras
8 AgentBank Modelos de indivíduos, banco de agentes, entrevistas Exercício 2
9 GABM Generative Agent-Based Models, equilíbrios, linguagem de simulações Leituras
10 Ética e Futuro Limitações, considerações éticas, aplicações futuras Projeto Final

Exercícios Práticos

Exercício 1: Criando Agentes Generativos

12 pontos
Objetivo de Aprendizagem

Este exercício visa proporcionar experiência prática na implementação dos módulos principais de agentes generativos. Você vai criar agentes que armazenam e sintetizam memórias, e recuperam informações relevantes baseadas em contextos interativos.

O Que Você Vai Construir
  • Sistema de recuperação de memórias (recência, importância, relevância)
  • Módulo de interação por chat
  • Um agente chatbot capaz de conversar usando memórias instiladas
Partes do Exercício

  1. Clone o repositório do exercício
  2. Configure ambiente virtual Python
  3. Instale dependências: pip install -r requirements.txt
  4. Configure sua API key em settings.py
# settings.py import sys from pathlib import Path OPENAI_API_KEY = "[Sua API Key]" # ou ANTHROPIC_API_KEY KEY_OWNER = "[Seu nome]" DEBUG = True LLM_VERS = "claude-sonnet-4-5-20250929"

Implemente três funções em memory_stream.py:

  1. extract_recency: Calcula score de recência baseado no último acesso
  2. extract_importance: Extrai score de importância pré-calculado
  3. extract_relevance: Calcula relevância usando similaridade de cosseno
def extract_recency(memory_node, current_time): """ Calcula score de recência para um no de memória. Memórias mais recentes devem ter scores maiores. """ # Sua implementação aqui pass def extract_relevance(memory_node, query_embedding): """ Calcula relevância usando similaridade de cosseno entre o embedding da memória e da query. """ # Sua implementação aqui pass

Implemente funções para dialogo em interaction.py:

  1. _utterance_agent_desc: Gera descrição do agente incluindo auto-descrição e memórias relevantes
  2. Crie o template de prompt para geração de respostas

Teste seu agente com perguntas factuais e reflexivas:

perguntas_factuais = [ "Qual negocio você iniciou apos trabalhar em uma empresa maior?", "Que grupo politico você se juntou?", "Como a crise de 2008 impactou seu negocio?", ] perguntas_reflexivas = [ "Como sua criação moldou seus valores?", "Como seu divorcio afetou seu senso de responsabilidade?", ]
Critérios de Avaliação
Componente Pontos Critério
Recuperação 5 80% das memórias recuperadas correspondem ao padrão-ouro
Respostas do Chat 3 Respostas alinhadas com as memórias fornecidas
Reflexão 3 Análise plausível e reflexiva sobre o sistema
Estilo de Código 1 Código limpo, legível e bem estruturado

Exercício 2: Interação Multi-Agente

12 pontos
Objetivo de Aprendizagem

Desenvolver múltiplas personas de agentes e observar comportamentos emergentes em uma simulação multi-agente. Você vai explorar a natureza contingente e emergente de agentes simulados.

O Que Você Vai Fazer
  1. Criar uma persona de agente com nome e background únicos (mínimo 100 palavras)
  2. Rodar simulação de eleição de líder entre agentes
  3. Iterar e refinar sua persona baseado em observações
  4. Criar 5 novos agentes e prever resultados
  5. Analisar e documentar os resultados
Seções do Relatório
Seção 1: Consistência (3 pts)

Análise das semelhanças e diferenças entre execuções da mesma simulação.

Seção 2: Refinamento (3 pts)

Documentação das mudanças na persona e seus efeitos no desempenho.

Seção 3: Previsibilidade (3 pts)

Pre-registro de previsões e análise de acertos/erros.

Seção 4: Dinâmicas (3 pts)

Reflexão sobre padrões observados e teorias de comportamento de agentes.

Projeto Final

30% da nota
Objetivo

Projetar e executar uma simulação usando agentes generativos. Você pode usar agentes criados durante o curso ou criar novos.

Exemplos de Questões de Pesquisa
  • Como diferentes traços de personalidade afetam colaboração em grupo?
  • Podemos simular como opiniões mudam sobre um tópico controverso?
  • Que dinâmicas emergem quando agentes com opiniões diferentes trabalham juntos?
  • Como eleitores de diferentes perfis reagem a notícias sobre candidatos?
Entregas
Proposta (10%)

1-2 páginas com questão de pesquisa, metodologia e insights esperados

Apresentação (30%)

Apresentação dos resultados e insights para a turma

Relatório (60%)

6-10 páginas com processo, resultados e reflexões

Recursos e Materiais

Arquitetura de um Agente Generativo
┌─────────────────────────────────────────────────────────────────┐
│                   ARQUITETURA DE AGENTE                         │
├─────────────────────────────────────────────────────────────────┤
│                                                                 │
│  ┌───────────────────────────────────────────────────────────┐ │
│  │                    1. IDENTIDADE (Scratch)                 │ │
│  │  Dados fixos: nome, idade, região, valores, história      │ │
│  │  → Não muda (ou muda raramente)                           │ │
│  └───────────────────────────────────────────────────────────┘ │
│                              │                                  │
│                              ▼                                  │
│  ┌───────────────────────────────────────────────────────────┐ │
│  │                    2. MEMÓRIA (Memory Stream)              │ │
│  │  Eventos, experiências, observações                        │ │
│  │  → Cresce com o tempo, tem peso de importância            │ │
│  └───────────────────────────────────────────────────────────┘ │
│                              │                                  │
│                              ▼                                  │
│  ┌───────────────────────────────────────────────────────────┐ │
│  │                    3. REFLEXÃO (Reflection)                │ │
│  │  Sintese de memórias em insights de alto nível            │ │
│  │  → Gerado periodicamente a partir das memórias            │ │
│  └───────────────────────────────────────────────────────────┘ │
│                              │                                  │
│                              ▼                                  │
│  ┌───────────────────────────────────────────────────────────┐ │
│  │                    4. RECUPERAÇÃO (Retrieval)              │ │
│  │  Busca memórias relevantes para uma pergunta              │ │
│  │  → Usa recência, importância e relevância                 │ │
│  └───────────────────────────────────────────────────────────┘ │
│                              │                                  │
│                              ▼                                  │
│  ┌───────────────────────────────────────────────────────────┐ │
│  │                    5. RESPOSTA (Response)                  │ │
│  │  Gera resposta baseada em identidade + memórias           │ │
│  │  → Usa LLM com contexto completo                          │ │
│  └───────────────────────────────────────────────────────────┘ │
│                                                                 │
└─────────────────────────────────────────────────────────────────┘