Inscrições Abertas - Turma 2026
10 semanas de curso online com certificado INTEIA Academy
Sobre o Curso
Como podemos criar simulações de sociedades humanas que reflitam nossas vidas?
Muitos dos maiores desafios do nosso tempo - desde promover o discurso público saudável até projetar respostas a pandemias e construir cooperação global para sustentabilidade - precisam lidar com a natureza complexa do nosso mundo.
O poder de simular mundos hipotéticos nos quais podemos fazer perguntas "e se" contrafactuais, e pintar imagens concretas de como um multiverso de diferentes possibilidades poderia se desenrolar, oferece uma oportunidade de navegar essa complexidade.
Este curso apresenta uma jornada por décadas de esforços nas ciências sociais, comportamentais e computacionais para simular indivíduos e suas sociedades, desde a literatura fundamental em modelagem baseada em agentes até agentes generativos que aproveitam o poder da IA generativa mais avançada para criar simulações de alta fidelidade.
Objetivos de Aprendizagem
- Compreender fundamentos de simulações de comportamento humano
- Dominar arquiteturas de agentes generativos
- Implementar sistemas de memória e reflexão
- Criar agentes que simulam personas realistas
- Desenvolver simulações multi-agente
- Analisar considerações éticas em simulações
O Que Você Vai Construir
Agentes Generativos
Com memória e personalidadeSimulações Multi-Agente
Interações emergentesAnálise de Resultados
Insights comportamentaisProf. Igor Vasconcelos
INTEIA Academy | Instrutor
Especialista em Inteligência Artificial e simulações computacionais aplicadas às ciências sociais.
Pré-requisitos
- Conhecimento básico de Python
- Noções de IA/Machine Learning (desejável)
- Acesso à API do Claude (Anthropic)
- Computador com Python 3.10+
Módulos do Curso
Introdução às Simulações: Passado, Presente e Futuro
Aula 1 de Stanford CS222 — O que são simulações? Por que se importar? Por que agora?
O que são simulações?
Simulações são programas que definem um ambiente e os comportamentos de indivíduos, e então produzem o mundo resultante. Você já viu simulações em jogos como The Sims, em filmes como Matrix, e em cursos acadêmicos com modelos como incêndios florestais. A ideia central é que podemos criar mundos virtuais onde agentes autônomos interagem e produzem resultados que nos surpreendem — mesmo quando nos mesmos definimos as regras.
O estado do mundo ao longo do tempo W(t) é definido como uma função recursiva: W(t) = (S_E(t), S_A1(t), S_A2(t), ..., S_AN(t)), onde S_E representa o estado do ambiente, e S_Ai representa o estado de cada agente i. O próximo estado W(t+1) é determinado pela interação entre as regras do ambiente (R_E) e os comportamentos dos agentes B(Aí).
Características das simulações
Podemos executar simulações múltiplas vezes a partir do mesmo estado inicial. Podemos influenciar o estado das simulações. E, em retorno, as simulações nos surpreendem — o fato de que elas nos surpreendem deveria ser surpreendente, dado que nos conhecemos as regras.
Por que se importar?
Simulações nos permitem fazer perguntas contrafactuais do tipo "e se...?" criando um multiverso de possibilidades. Muitos problemas no mundo são "wicked" (complexos e mal-definidos), caracterizados por equilíbrios complexos e restrições do mundo real. Como indivíduo, que aula devo cursar? Como grupo, como ensaiar uma conversa difícil? Como sociedade, como organizar ação coletiva para sustentabilidade?
"Muitos desafios que enfrentamos exigem que exploremos contrafactuais complexos que não podem ser testados no mundo real. Simulações oferecem o potencial de responder perguntas que anteriormente não tínhamos como responder."
Ato 1: Passado — Simulações pré-IA generativa
A história das simulações inclui a Teoria da Mente (Gordon, 1986), autômatos celulares (von Neumann, 1966; Wolfram, 2002), teoria dos jogos (von Neumann & Morgenstern, 1944) e modelos baseados em agentes como o modelo de segregação de Schelling (1971). Essas abordagens tradicionais eram simples e interpretáveis, mas simplificavam excessivamente as contingências humanas.
Ato 2: Presente — Simulações com agentes generativos
Grandes modelos de linguagem podem ser induzidos a gerar comportamento humano condicionado a uma variedade de experiências. O trabalho Social Simulacra (Park et al., UIST 2022) demonstrou isso com a fórmula "[nome] e uma [descrição]". Pesquisas recentes replicaram pesquisas e experimentos (Horton, 2023; Argyle et al., 2023) e previram efeitos de tratamento (Ashokkumar et al., 2024). Os agentes generativos e o mundo de Smallville (Park et al., 2023) representam a fronteira atual.
Ato 3: Futuro — Rumo a uma simulação precisa do mundo
Uma visão: um simulador mundial de 8 bilhões de pessoas. A mudança de paradigma da IA generativa nos permite revisitar problemas antigos com novas perspectivas. O campo da simulação é novo e emergente, e a disciplina CS222 é um dos primeiros cursos dedicados a esse tópico.
Ver Slides Originais (EN)Sistema discreto onde células evoluem baseadas em regras locais. Von Neumann (1966) e Wolfram (2002) formalizaram a ideia de que sistemas complexos emergem de regras simples aplicadas repetidamente em grades de células.
Simulação onde agentes autônomos interagem segundo regras, gerando comportamentos emergentes. O modelo de segregação de Schelling (1971) é o exemplo clássico: regras simples de preferência geram segregação macroscópica.
Agente que usa grandes modelos de linguagem para gerar comportamentos realistas baseados em identidade e memória. A abordagem é aberta e captura nuances, mas é mais complexa que abordagens tradicionais.
Simulações permitem criar um "multiverso de possibilidades" para explorar cenários hipotéticos. Isso é especialmente valioso para problemas complexos onde experimentos reais são impossíveis ou antiéticos.
O paper fundamental sobre agentes generativos e o mundo de Smallville
Trabalho precursor que demonstrou LLMs gerando comportamento social condicionado
Trabalho filosófico fundacional sobre Teoria da Mente como simulação
Esta aula inaugural estabelece o panorama completo do campo de simulações computacionais. O professor Joon Sung Park, doutorando em Stanford e criador dos agentes generativos, guia os alunos desde os autômatos celulares até a visão de um simulador de 8 bilhões de pessoas.
Conexão com o contexto brasileiro: Podemos pensar em simulações de políticas públicas no Brasil — como simular o impacto de programas sociais como o Bolsa Família em comunidades diversas, ou modelar o comportamento eleitoral em diferentes regiões. A capacidade de fazer perguntas "e se...?" tem enorme potencial para o planejamento urbano em cidades brasileiras e para a formulação de políticas educacionais.
Aplicação INTEIA Academy: Este módulo fornece o vocabulário fundamental que será usado ao longo de todo o curso. Preste atenção especial à definição formal de simulação (função recursiva) e à distinção entre simulações tradicionais (simples, interpretáveis) e generativas (abertas, complexas).
Problemas Complexos (Wicked Problems)
Aula 2 de Stanford CS222 — Quais problemas as simulações podem ajudar a resolver de forma única?
Vinheta 1: Redes Sociais
A aula começa com um estudo de caso sobre a evolução das redes sociais. No início, o problema era "o vencedor leva tudo" — plataformas precisavam escalar rapidamente. A solução foi o Feed de Notícias (2006), que capturava a atenção dos usuários. Porém, uma consequência não intencional foi que conteúdo sensacionalista e emocional superava posts ponderados. A solução proposta foi moderação de conteúdo com checagem de fatos, mas isso gerou acusações de viés e censura. Este ciclo recursivo ilustra perfeitamente um wicked problem.
Vinheta 2: Resposta à Pandemia
O segundo estudo de caso examina a resposta governamental à pandemia de COVID-19. Governos implementaram lockdowns para conter a propagação. Consequência não intencional: impacto econômico negativo significativo com efeito limitado na contenção. Solução: relaxar lockdowns com distanciamento social. Nova consequência: queda na confiança pública, dificultando a vacinação. Novamente, cada solução gera novos problemas.
Segundo Rittel e Webber (1973), wicked problems são desafios sociais ou de políticas públicas complexos e mal-definidos que resistem a soluções diretas. Exemplos incluem: equilíbrio trabalho-vida, política de imigração, sustentabilidade, guerra contra as drogas, saúde universal.
Propriedades dos Wicked Problems
- Não há formulação definitiva do problema (a formulação é tão importante quanto a solução)
- Não há regra de parada — nunca se sabe quando o problema foi "resolvido"
- Soluções não são verdadeiras ou falsas, mas melhores ou piores
- Não há teste imediato ou definitivo de uma solução
- Cada solução é uma "operação única" — não há oportunidade de aprender por tentativa e erro
- Não há conjunto enumerável de soluções potenciais
- Cada wicked problem é essencialmente único
História: Wicked Problems, Design e IA
Rittel era um teórico do design na UC Berkeley. Webber era urbanista e teórico na UC Berkeley. Eles forneceram uma base para estudar "design". Os problemas de design se distinguem dos da ciência. Este estudo inspirou os fundadores da IA e da Interação Humano-Computador: Herbert Simon e Allen Newell. Design e engenharia lidam com problemas de "bordas suaves".
"Wicked problems são recursivos por natureza. Simulações podem nos ajudar a identificar as versões mais gerais dos nossos problemas?"
Modelo de Schelling
Thomas Schelling, economista da Universidade de Maryland, demonstrou com seu modelo de segregação (1971) como interações humanas simples levam a resultados complexos. O modelo demonstra o "ponto de virada" (tipping point) — pequenas preferências individuais por vizinhos similares resultam em segregação macroscópica dramática. A pergunta final da aula: o que seria necessário para o campo de simulação ganhar um Prêmio Nobel?
Ver Slides Originais (EN)Problema complexo e mal-definido sem solução definitiva. Cada tentativa de solução revela novos aspectos do problema. Conceito introduzido por Rittel e Webber em 1973 no contexto de planejamento urbano.
Momento crítico em que uma pequena mudança causa uma transição dramática no sistema. No modelo de Schelling, pequenas preferências individuais causam segregação completa quando ultrapassam um limiar.
Cada solução para um wicked problem gera novas consequências não intencionais que se tornam novos problemas. Simulações podem ajudar a mapear essas cadeias causais antes que aconteçam no mundo real.
Conceito de Schelling (1978): comportamentos e motivações individuais (micro) geram padrões coletivos inesperados (macro). É a essência da modelagem baseada em agentes.
O artigo clássico que definiu "wicked problems" — leitura essencial para entender por que simulações são necessárias
Como ações individuais geram padrões coletivos — o livro que inspirou gerações de modelagem baseada em agentes
Ciência da desinformação — contexto para o estudo de caso de redes sociais
Esta aula é central para entender a MOTIVAÇÃO de todo o campo. Antes de construir qualquer simulação, precisamos entender que tipo de problema ela pode resolver. Wicked problems não são apenas "problemas difíceis" — são problemas cuja própria formulação e parte do desafio.
Conexão com o contexto brasileiro: O Brasil é repleto de wicked problems: desigualdade educacional, violência urbana, desmatamento, polarização política, crise de saúde pública. O caso da pandemia discutido na aula é especialmente relevante — o Brasil viveu intensamente cada etapa desse ciclo recursivo. Simular os efeitos de políticas de lockdown em diferentes comunidades brasileiras seria um exercício valioso.
Aplicação INTEIA Academy: Ao longo do curso, incentivamos os alunos a identificar wicked problems brasileiros que poderiam se beneficiar de simulações com agentes generativos. O modelo de Schelling pode ser adaptado para simular segregação socioeconômica em cidades brasileiras.
Indivíduos, Grupos e Populações
Aula 3 de Stanford CS222 — Qual é a unidade quântica das simulações?
A Unidade Quântica das Simulações
Indivíduos são a unidade quântica das simulações. Algumas simulações, como os agentes generativos de Smallville, definem explicitamente o que é um agente individual. Outras, como autômatos celulares, não fazem essa distinção. A granularidade da simulação é frequentemente escolhida com base na praticidade e no objetivo específico.
Três Níveis de Análise
Um indivíduo é uma única pessoa que possui qualidades, traços, crenças e experiências unicas. Simulações de indivíduos permitem perguntas altamente granulares: "Este indivíduo gostaria destes resultados de busca?" ou "Como este indivíduo reagiria a tratamentos experimentais?" Exemplos incluem filtragem colaborativa (GroupLens, Resnick et al., 1994) e Jury Learning (Gordon et al., 2022).
Grupos são agregados de pessoas distinguidos por interação regular e interdependência — membros influenciam e são influenciados uns pelos outros. Simulações de grupos exploram como indivíduos se reúnem para exibir comportamentos coletivos: "Como resolver um conflito entre duas pessoas?" ou "Um grupo de crowdworkers pode cooperar com sucesso?"
Populações compartilham atributos comuns como área geográfica ou espécie. Simulações de populações exploram como uma população difere de outras através de estatísticas agregadas: "Democratas preferem uma certa política mais que Republicanos?" ou "Adultos mais velhos passam mais tempo lendo que gerações jovens?"
Agentes Generativos como Modelos Comportamentais
Trabalhos recentes que usam IA generativa para simular comportamentos humanos predominantemente adotam a abordagem de modelar populações. Isso acontece por duas razões: (1) avaliação mais acessível — podemos avaliar replicando estudos existentes de populações, e (2) ainda não está claro como construir um modelo de um indivíduo.
"Simulações no nível de população nos fornecem uma ferramenta poderosa. Mas simulações no nível de população precisam lidar com viés e estereotipagem." — Referindo-se a Wang, Morgenstern & Dickerson (2024): "Large language models cannot replace human participants because they cannot portray identity groups."
Diferentes Níveis, Diferentes Apostas
População: não granular o suficiente. Indivíduos: muito ruidoso. Grupos: podem nunca ser previsíveis. Entender o nível de granularidade que você quer simular é essencial para garantir que suas simulações produzam as respostas que você procura.
Ver Slides Originais (EN)O agente individual é o bloco de construção fundamental. A escolha de como definir essa unidade determina que tipo de perguntas a simulação pode responder e em que nível de detalhe.
Método de avaliação proposto por Chang et al. (2024): redes sociais geradas por LLMs são estruturalmente realistas mas superestimam homofilia política. Verificar onde a simulação converge e diverge da realidade.
LLMs não podem retratar grupos identitários de forma confiável (Wang et al., 2024). Simulações populacionais podem perpetuar estereótipos em vez de capturar a diversidade real dentro de grupos demográficos.
Técnica clássica de modelagem de indivíduos: se dois usuários concordam em um assunto, provavelmente concordarão em outros. Base de sistemas de recomendação como GroupLens (Resnick et al., 1994).
Criando protótipos populados para sistemas de computação social
Usando modelos de linguagem para simular amostras humanas — exemplo de simulação no nível de população
Limitações críticas de LLMs na representação de grupos identitários
Esta aula introduz uma decisão de design fundamental: em que nível de granularidade simular? A resposta depende inteiramente da pergunta que você quer responder. Não existe nível "melhor" — cada um tem trade-offs claros.
Conexão com o contexto brasileiro: Para simular comportamento eleitoral no Distrito Federal, por exemplo, precisamos decidir se modelamos indivíduos (cada eleitor), grupos (comunidades, partidos) ou populações (demografias agregadas). A pesquisa eleitoral do projeto INTEIA trabalha nessa exata interseção. O alerta sobre vieses e especialmente relevante: LLMs treinados predominantemente em dados de países de língua inglesa podem não capturar nuances da cultura política brasileira.
Aplicação INTEIA Academy: Ao projetar sua simulação, comece pela pergunta que quer responder. Depois, identifique o nível de análise necessário. Finalmente, avalie se os dados disponíveis suportam esse nível de granularidade.
Arquiteturas Cognitivas
Aula 4 de Stanford CS222 — Da psicologia cognitiva às arquiteturas de agentes generativos
O que são "arquiteturas"?
Arquiteturas existem em muitos domínios: sistemas operacionais, hardware de computador, aprendizado por reforço (Sutton & Barto, 2018), Transformers (Vaswani et al., 2017), e arquiteturas cognitivas como SOAR e GOMS. Arquiteturas são tanto uma descrição de um sistema funcional quanto uma teoria. Elas não são uma receita passo a passo; em vez disso, oferecem uma perspectiva sobre como um sistema deve funcionar.
Breve História da Ciência Cognitiva
Allen Newell, com bacharelado em física por Stanford (1949) e doutorado na Carnegie Mellon sob Herbert Simon, é uma figura central. Ele co-criou o Logic Theorist (1955) — possivelmente o primeiro programa de IA da história, que provou 38 dos primeiros 52 teoremas do Principia Mathematica. Depois veio o General Problem Solver (1956), e finalmente Unified Theories of Cognition (1990), onde Newell argumenta por um conjunto de suposições gerais para modelos cognitivos que expliquem todos os aspectos da cognição.
"Observação inicial: acadêmicos em psicologia cognitiva começaram a propor que computadores processam informação de forma similar à mente humana. Podemos entender como a mente funciona ilustrando-a com arquiteturas cognitivas? Podemos criar agentes computacionais de propósito geral que resolvam tarefas humanas?"
Exemplos de Arquiteturas Cognitivas
Iniciou como tese de doutorado de John Laird (com Newell e Rosenbloom). SOAR postula a Hipotese do Espaco de Problemas: todo comportamento orientado a objetivos pode ser representado como busca por um espaço de estados possíveis. A cada passo, um único operador é selecionado e aplicado ao estado atual do agente. A arquitetura SOAR se assemelha a de um computador.
Existe um paralelo fascinante entre o passado e o presente. Antes: "computadores processam informação como a mente humana". Hoje: "IA generativa codifica e gera comportamentos semelhantes aos humanos". Antes: podemos entender a mente com arquiteturas cognitivas? Hoje: podemos entender como pessoas formam comportamentos emergentes com agentes generativos?
Arquitetura dos Agentes Generativos
No mundo de Smallville, 25 agentes habitam uma cidade com cafes, casas, parques e faculdade. Isabella Rodriguez, dona do Hobbs Cafe, planeja uma festa de Dia dos Namorados. Os agentes planejam e executam comportamentos diários, suas ações impactam o ambiente (xícaras limpas, máquina de cafe ligada), e eles lembram de suas interações. Para aqueles nas comunidades de arquitetura cognitiva, essas novas arquiteturas são imediatamente reconhecíveis.
Agentes de Simulação vs Agentes Baseados em Ferramentas
A história se repete. Estamos vendo diferentes iterações dessas arquiteturas emergindo em agentes baseados em ferramentas como AutoGPT, Devin e Rabbit. A distinção entre agentes que simulam comportamento humano e agentes que executam tarefas é um tema que voltará em aulas futuras.
Ver Slides Originais (EN)Uma teoria dos mecanismos e estruturas fixas que fundamentam a cognição humana. Fatorar o que é comum entre diferentes comportamentos cognitivos é um passo significativo rumo a uma teoria unificada da cognição.
Todo comportamento orientado a objetivos é uma busca por um espaço de estados. Um operador é selecionado e aplicado ao estado atual, podendo gerar mudanças internas ou ações externas. Inspirou a visão moderna de agentes.
O ciclo fundamental dos agentes generativos: perceber o ambiente (observar eventos), processar informação (memória, reflexão) e agir (planos, dialogos). Agentes baseados apenas em prompts não conseguem lembrar e fazer sentido de experiências.
Arquiteturas cognitivas são uma caricatura estilizada da cognição humana — não pretendem ser uma copia exata, mas capturar os elementos essenciais que permitem comportamento inteligente.
O paper fundacional da arquitetura SOAR — base para entender arquiteturas cognitivas
O argumento de Newell por uma teoria unificada da cognição — contexto histórico essencial
A arquitetura ACT-R — alternativa ao SOAR, também influente na IA moderna
Esta aula conecta o passado (arquiteturas cognitivas dos anos 1980-90) ao presente (agentes generativos com LLMs). O paralelo histórico é revelador: os mesmos questionamentos que motivaram SOAR e ACT-R agora motivam a pesquisa em agentes de IA. A diferença é que LLMs oferecem uma "CPU cognitiva" muito mais flexível.
Conexão com o contexto brasileiro: O conceito de arquiteturas cognitivas é fundamental para quem quer construir agentes que representem brasileiros de forma autêntica. Os ciclos de percepção-memória-ação precisam ser adaptados para contextos culturais específicos. Um agente simulando um servidor público brasileiro, por exemplo, precisaria de "memórias" sobre processos burocráticos, hierarquias institucionais e dinâmicas de poder específicas.
Aplicação INTEIA Academy: Esta aula fornece a base teórica para o Exercício Prático 1. Entender o ciclo percepção-memória-reflexão-planejamento-ação e essencial antes de implementar qualquer agente generativo.
Arquitetando Agentes Generativos
Aula 5 de Stanford CS222 — Implementação prática: memória, recuperação, reflexão e planejamento
Memory Stream (Fluxo de Memória)
O fluxo de memória é um banco de dados que mantem um registro completo da experiência do agente em linguagem natural. A partir dele, registros são recuperados conforme relevância para planejar ações e reagir ao ambiente. Registros são sintetizados recursivamente em reflexões de níveis cada vez mais altos que guiam o comportamento. Cada "objeto de memória" contem o timestamp da criação.
O fluxo de memória completo pode distrair o modelo generativo e não cabe na janela de contexto limitada. A solução é recuperar apenas uma porção selecionada da experiência do agente usando uma função de recuperação.
Função de Recuperação (Retrieval)
A função de recuperação usa três fatores combinados: Recência (decaimento exponencial — memórias mais recentes tem maior peso), Importância (score de 0 a 100 para cada memória) e Relevância (similaridade de cosseno entre embeddings da query e da memória). A fórmula é: retrieval_score = alpha1 * recência + alpha2 * importância + alpha3 * relevância.
Reflexão (Reflection)
Agentes generativos equipados apenas com memória observacional bruta lutam para generalizar ou fazer inferências. Reflexoes são pensamentos de nível mais alto e abstrato gerados pelo agente e armazenados no fluxo de memória. São sintetizadas periodicamente a partir dos 100 registros mais recentes. Com o tempo, agentes geram árvores de reflexões: nós-folha são observações, e nós internos são pensamentos progressivamente mais abstratos.
"Nós lembramos e fazemos sentido de nossas experiências. Agentes baseados apenas em prompts não conseguem fazer isso."
Planejamento e Reação (Planning and Reacting)
Enquanto um LLM pode gerar comportamento plausível em resposta a informação situacional, agentes precisam planejar em horizontes temporais mais longos. Planos descrevem uma sequência futura de ações incluindo local, horário de início e duração. A abordagem começa top-down e depois gera recursivamente mais detalhes: primeiro grandes blocos, depois horários, depois intervalos de 5-15 minutos. Agentes percebem o ambiente e determinam se precisam reagir e editar seus cronogramas.
Na implementação: classe ConceptNode para objetos de memória, classe MemoryStream para o fluxo, geração de scores de importância, cálculos de similaridade de cosseno com embeddings, e implementação da função "remember". O exercício prático pede para implementar as partes centrais da função de recuperação e função de chat com alguma engenharia de prompts.
Banco de dados de linguagem natural com todas as experiências do agente. Cada entrada tem timestamp e é a base para recuperação, reflexão e planejamento. Funciona como a "memória episódica" humana.
Combina recência (exponencial), importância (0-100) e relevância (cosseno). Seleciona as memórias mais pertinentes para o contexto atual, resolvendo o problema da janela de contexto limitada dos LLMs.
Estrutura hierárquica onde observações são folhas e reflexões são nós internos progressivamente mais abstratos. Permite ao agente raciocinar sobre padrões, valores e objetivos de longo prazo.
Abordagem top-down: primeiro grandes blocos de atividades, depois detalhamento por hora, finalmente intervalos de 5-15 minutos. Cada nível refina o anterior, gerando agendas realistas e coerentes.
O PAPER FUNDAMENTAL DO CURSO — Detalhes da arquitetura de agentes generativos e Smallville
Framework conceitual moderno para arquiteturas de agentes de linguagem
Referenciado na aula a propósito do uso compartilhado de créditos de API — tema de bens comuns
Esta é a aula mais "mao na massa" até aqui. O professor Joon Sung Park detalha a implementação real dos componentes de um agente generativo. É aqui que a teoria encontra o código.
Conexão com o contexto brasileiro: A função de recuperação (retrieval) é especialmente importante quando construímos agentes que representam brasileiros. As memórias precisam ser culturalmente situadas — um agente simulando um morador de Brasília precisaria de memórias sobre quadras, Lago Paranoá, dinâmicas do funcionalismo público. O peso dado a "importância" vs "recência" pode variar culturalmente.
Aplicação INTEIA Academy: Este módulo é a base para o Exercício Prático 1. Os alunos implementarão a função de recuperação, o score de importância e o fluxo de memória. Dediquem tempo extra aqui — estes conceitos retornam em todos os módulos seguintes.
Mundos Interativos
Aula 6 de Stanford CS222 — O ambiente é tão importante quanto os agentes
O que é um Ambiente em Simulações de Agentes?
Um ambiente é a descrição das configurações que os agentes percebem para tomar ações. Pode ser uma pesquisa (survey), um chat, ou um mundo inteiro. Simulações envolvem uma interação entre agentes e seus ambientes: W(t) = (S_E(t), S_A1(t), ..., S_AN(t)). A "precisão" de uma simulação é tanto função dos agentes quanto do ambiente.
Por que o Ambiente Importa?
Salganik, Dodds & Watts (2006) mostraram que aumentar a força da influência social aumentou tanto a desigualdade quanto a imprevisibilidade do sucesso. As melhores musicas raramente iam mal, e as piores raramente iam bem, mas qualquer outro resultado era possível. Isso demonstra como o ambiente (a presença de informação social) muda radicalmente o comportamento.
Agentes generativos são excessivamente ansiosos para curtir conteúdo e fazer compras. Richard Thaler (Nobel 2017) introduziu o conceito de "contabilidade mental": pessoas categorizam dinheiro em diferentes "contas mentais" e gastam de forma diferente dependendo da conta. Um bom ambiente de simulação apresenta o conjunto correto de escolhas aos agentes, incluindo custos de oportunidade em capital social, orçamento, energia emocional/mental.
Ambientes em Simulações Pre-IA Generativa
Modelo de segregação de Schelling: essencialmente um mundo em grade de pontos vermelhos e azuis, onde agentes "percebem" seus quadrados vizinhos. Teoria dos jogos: cenários abstratos onde prisioneiros decidem confessar ou não. Estes ambientes estilizados funcionam para agentes tradicionais que simplificam contingências humanas, mas podem não permitir aproveitar efetivamente agentes generativos que buscam incorporar a complexidade total do comportamento humano.
Tipos de Ambientes para Agentes Generativos
Pesquisas/surveys (Argyle et al., 2023), experimentos (Ashokkumar et al., 2024; Horton, 2023), ambientes conversacionais como Roleplay-doh (Louie et al., 2024) e Rehearsal (Shaikh et al., 2024), e mundos completos como Smallville, ChatDev, DiscoveryWorld e Agent Hospital. O Smallville usa um scene graph simples como representação, e decidir para onde ir e uma tarefa de classificação recursiva.
Limitações e Direções Futuras
Nossos ambientes virtuais ainda são estilizados e simplificados comparados ao mundo real. E se lojas, banheiros e escolas não existissem em Smallville? Como agentes navegam sem carros? Alguns ambientes são intensivos em recursos. Encontrar o esquema ou estrutura correto para descrever o ambiente de simulação é um tópico de pesquisa importante — e ainda não temos resposta.
"Redes podem ser o ambiente para simulações? Redes são flexíveis e exibem fenômenos emergentes e equilíbrios. Podemos gerar redes sociais estruturalmente realistas com LLMs — embora superestimem homofilia política." — Chang et al. (2024)
Uma outra direção: gerar o mundo da mesma forma que geramos comportamentos de agentes, como no projeto Genie (Bruce et al., 2024) de ambientes interativos generativos.
Ver Slides Originais (EN)Conceito de Thaler (Nobel 2017): pessoas categorizam recursos em "contas" diferentes e gastam de forma irracional dependendo da categoria. Agentes devem enfrentar custos de oportunidade realistas, não apenas escolhas binárias.
Representação do ambiente de Smallville como grafo de cena hierárquico. Permite que agentes "naveguem" decidindo recursivamente em que nível do grafo se posicionar (cidade > bairro > predio > sala > objeto).
Redes sociais são candidatas naturais a ambientes de simulação. Nos representam indivíduos, links representam relações. Exibem fenômenos emergentes como "preferential attachment" (Barabasi & Albert, 1999).
Dois requisitos: (1) Rico e preciso — codificar as complexidades do mundo real; (2) Escalável — facilmente escalável para simular 8 bilhões de pessoas. Esses requisitos estão em tensão.
Experimento clássico mostrando como influência social altera radicalmente resultados culturais
Contabilidade mental — essencial para entender por que ambientes precisam apresentar custos de oportunidade realistas
Artigo clássico sobre redes sociais e a importância dos laços fracos
Insight-chave desta aula: a "precisão" de uma simulação não depende apenas dos agentes — depende igualmente do ambiente. Um agente perfeito em um ambiente empobrecido produzirá resultados empobrecidos. O conceito de "contabilidade mental" de Thaler e crucial: sem custos de oportunidade realistas, agentes se comportam de forma irrealista.
Conexão com o contexto brasileiro: Para simular eleitores brasileiros, o "ambiente" precisa incluir elementos como redes sociais (WhatsApp e especialmente relevante no Brasil), mídia tradicional, conversa informal na padaria, influência religiosa, e estruturas de poder local. Um ambiente que só inclui Twitter/X não captura a realidade da disseminação de informação no Brasil.
Aplicação INTEIA Academy: Ao projetar ambientes de simulação, considere: que escolhas os agentes enfrentam? Quais são os custos de oportunidade? O ambiente é rico o suficiente para permitir comportamento emergente, mas simples o suficiente para ser computacionalmente viável?
Credibilidade vs Precisão
Aula 7 de Stanford CS222 — Ilusão de vida versus predição acurada do futuro
Agentes e Simulações Críveis (Believable)
A aula começa com uma reflexão sobre onde a arte e as histórias encontram seu poder. A resposta vem da animação Disney: "A animação Disney faz audiências realmente acreditarem em... personagens cujas aventuras e infortunios fazem as pessoas rir — e até chorar. Há um ingrediente especial em nosso tipo de animação que produz desenhos que parecem pensar e tomar decisões por vontade própria; e o que cria a ilusão de vida." (Thomas & Johnston, 1981)
"Agentes críveis são projetados para criar a ilusão de vida. Credibilidade. Era isso que buscávamos... crenca na vida dos personagens." — Bates (1994), The Role of Emotion in Believable Agents
Como Medir Credibilidade?
Historicamente, o Teste de Turing (1950) foi a referência. Os modelos baseados em agentes tradicionais (como Schelling) não eram avaliados por credibilidade. Já os agentes generativos de Smallville foram avaliados com base em essencialmente um "teste de Turing comportamental" — humanos avaliaram se os comportamentos pareciam humanos sem saber que eram gerados por IA.
Aplicações de Agentes Críveis
Agentes críveis podem alimentar jogos e narrativas (The Sims, Minecraft), "companheiros de IA" (Replika, Character.aí) e espaços de ensaio — tanto para pessoas praticarem situações difíceis (Roleplay-doh para pacientes simulados, Rehearsal para resolução de conflitos) quanto para agentes treinarem entre si (Agent Hospital).
Agentes de simulação não precisam necessariamente buscar nossa "visão idealizada de inteligência". Ênfase em reatividade pode ser mais importante que inteligência geral. Agentes críveis oferecem uma ilusão de vida — mas ainda são apenas simulacros plausíveis.
Agentes e Simulações Precisos (Accurate)
Simulações precisas são predições do futuro. O desafio está tanto na construção quanto na avaliação. O esquema geral de avaliação e: coletar dados reais (ground-truth) e verificar se a simulação os replica.
Desafios de Avaliação por Nível
- Individual: natureza aberta (em qual eixo avaliar?), inconsistência do comportamento individual
- Grupo: dinâmicas complexas (alguns acreditam que não e possível)
- População: as vezes falta ground truth; se replicando estudos conhecidos, o modelo pode ter memorizado o estudo
Podemos prever estudos ainda não incluídos nos datasets dos modelos de linguagem? A pesquisa de Ashokkumar et al. (2024) sugere que sim. Estado da arte: nível de população funciona, nível individual e incerto, nível de grupo é a grande questão em aberto.
Ver Slides Originais (EN)"A medida que simulações se tornam mais precisas, isso não necessariamente significa que se tornam mais críveis. Uma simulação precisa precisa fornecer a ilusão de vida através de emoções? Talvez sim, talvez não."
A capacidade de um agente criar a "ilusão de vida" — parecendo pensar, sentir e agir por vontade própria. Herdada das artes (animação, teatro) e formalizada por Bates (1994). Avaliada por percepção humana, não por métricas objetivas.
A capacidade de uma simulação de prever resultados reais. Avaliada contra ground-truth data. Muitos wicked problems requerem simulações precisas, não apenas críveis. Mas avaliação é fundamentalmente difícil.
Aplicação prática de agentes críveis: simular pacientes para treinar médicos (Roleplay-doh), simular conflitos para ensinar resolução (Rehearsal), simular hospitais inteiros para treinar agentes médicos (Agent Hospital).
Avaliação de agentes generativos onde humanos julgam se comportamentos são de agentes ou pessoas reais. Extensão do teste original de Turing (1950) para comportamento, não apenas conversação.
O artigo fundacional sobre agentes críveis — conecta artes performáticas com IA
Evidência de que LLMs podem prever resultados de estudos não incluídos em seus dados de treino
O clássico da animação Disney que inspira o conceito de "ilusão de vida" em agentes de IA
A distinção entre credibilidade e precisão é central para toda a área. Não são a mesma coisa, e não necessariamente andam juntas. Um agente pode ser extremamente crível (parece real) mas impreciso (não prevê comportamento real), e vice-versa. Saber qual você precisa depende da sua aplicação.
Conexão com o contexto brasileiro: Para projetos de "ensaio" de políticas públicas (ex: simular reação de comunidades a uma nova política educacional), precisamos de PRECISÃO. Para jogos educacionais ou treinamento de profissionais de saúde, credibilidade pode ser suficiente. O projeto de pesquisa eleitoral da INTEIA precisa prioritariamente de precisão — não basta que agentes "parecam" eleitores brasileiros, eles precisam se comportar como tais.
Aplicação INTEIA Academy: Ao avaliar suas simulações no projeto final, defina claramente se está buscando credibilidade, precisão, ou ambos. Justifique por que seu wicked problem requer um ou outro.
Modelos de Indivíduos e AgentBank
Aulas 8-9 de Stanford CS222 — Modelando pessoas reais e construindo um banco de agentes
Aula 8: Modelos de Indivíduos
A observação central: os modelos de comportamento humano de hoje são frequentemente criados no nível de população (moderação de conteúdo, robótica, diagnóstico medico, filtragem de spam). Enquanto modelos de população preveem o comportamento médio de uma população, modelos de indivíduos preveem o comportamento de uma pessoa específica. Isso abre oportunidades genuinamente novas.
Criar um modelo eficaz requer grande quantidade de dados. Hoje, coletamos esses dados da web (no nível de população). Porém, dados sobre indivíduos são, por definição, muito mais escassos. Não temos terabytes de dados sobre uma única pessoa.
Medições de comportamento individual podem ser repletas de inconsistências devido a instabilidade inerente dos indivíduos e erros de medição. "Regressão a media" não se aplica a modelos de indivíduos — uma pessoa pode mudar radicalmente de opinião de um dia para outro.
Modelos Historicos de Indivíduos
O esquema geral: criar um modelo central que representa uma população, depois ajustar rapidamente componentes desse modelo para descrever indivíduos. Exemplos incluem filtragem colaborativa/sistemas de recomendação (GroupLens, Resnick et al., 1994), Jury Learning (Gordon et al., 2022 — modela cada rotulador individual e realiza N julgamentos), e testes de personalidade como Big Five (John & Srivastava, 1999).
Como Criar Modelos de Indivíduos com LLMs
Ideia: usar um LLM como modelo central. O LLM então interpreta (roleplay) uma pessoa específica com base em informações fornecidas sobre aquele indivíduo. A pergunta-chave: que informação descreveria uma pessoa de forma mais holística e eficaz?
"Atividade de classe: Grupo 1 — Imagine que conheceu alguém novo. O que você perguntaria para conhecê-lo em 30 minutos? Grupo 2 — Que fatos sobre você são mais significativos para descrevê-lo como pessoa?"
Aula 9: AgentBank-CS222
Com base na sessão de brainstorming, a equipe do curso criou um roteiro de entrevista e a Pesquisa CS222. Na atividade prática, alunos se entrevistaram mutuamente seguindo o roteiro, criando perfis detalhados que foram usados para construir agentes simulados de cada aluno — o AgentBank-CS222. Esta atividade conecta diretamente a teoria de modelos de indivíduos com a prática de construir agentes que representam pessoas reais.
Slides Aula 8 (EN) Slides AgentBank (EN)Modelos de população preveem comportamento médio. Modelos de indivíduos preveem comportamento de uma pessoa específica. A transição de um para outro é o grande desafio: dados escassos, inconsistência individual, ausência de "regressão a media".
Banco de agentes construído a partir de entrevistas reais com pessoas. Cada agente é um perfil detalhado que permite ao LLM interpretar (roleplay) aquela pessoa em simulações. Conceito análogo ao genoma humano para simulações sociais.
Arquitetura de Gordon et al. (2022) que modela cada rotulador individual em um dataset e realiza N julgamentos amostrando "jurados". Permite integrar vozes dissidentes em modelos de aprendizado de máquina.
Modelo de personalidade que classifica traços em 5 dimensões (abertura, conscienciosidade, extroversão, amabilidade, neuroticismo). Baseado em observação fundamentada. Um dos modelos usados para descrever indivíduos para LLMs.
Por que prever resultados individuais é fundamentalmente difícil — limites da previsibilidade
Modelo que integra perspectivas individuais divergentes — abordagem inovadora para modelar diversidade
Taxonomia dos Cinco Grandes traços de personalidade — modelo psicológico usado para descrever indivíduos
Estas duas aulas são o coração prático do curso. A atividade do AgentBank — onde alunos de Stanford se entrevistaram para criar agentes de si mesmos — é exatamente o tipo de exercício que queremos replicar na INTEIA Academy. A pergunta "que informação descreve uma pessoa de forma holística?" não tem resposta única e depende do contexto cultural.
Conexão com o contexto brasileiro: Para criar um AgentBank de brasileiros, as perguntas de entrevista precisam ser culturalmente adaptadas. Religião, família extensa, relação com a comunidade, posição socioeconômica, região de origem — esses fatores podem ser mais determinantes no Brasil que nos EUA. O projeto de pesquisa eleitoral da INTEIA planeja criar exatamente isso: um banco de agentes representando eleitores do Distrito Federal.
Aplicação INTEIA Academy: Este módulo conecta-se diretamente ao Exercício Prático 2. Os alunos criarão seus próprios perfis de agente e conduzirão entrevistas para construir um mini-AgentBank da turma.
Modelos Generativos Baseados em Agentes
Aulas 10-12 de Stanford CS222 — GABM, equilíbrios, efeito borboleta e linguagem de simulações
Aula 10: Modelos Generativos Baseados em Agentes (GABM)
Modelos baseados em agentes (ABM) estudam a interação entre agentes individuais. A aula introduz o conceito de GABM — a combinação de agentes generativos com a estrutura clássica de ABM. Em uma demonstração prática, alunos descreveram suas "personas" que foram usadas para construir agentes simulados. Esses agentes foram colocados em uma sala virtual para decidir quem seria seu líder — uma simulação de votação em tempo real.
A aula traca um paralelo entre o sequenciamento do genoma humano e bancos de agentes. Quem são os donos dos seus agentes? Questões de propriedade intelectual (greve de roteiristas de Hollywood contra IA generativa), fantasmas generativos (Morris & Brubaker, 2024 — agentes de IA de pessoas falecidas), e a necessidade de consentimento informado.
Aula 11: Equilíbrios e Borboletas
Sistemas complexos são compostos por muitos componentes interconectados que interagem de formas dinâmicas e não-lineares, produzindo comportamentos coletivos difíceis de prever. Estamos cercados por sistemas complexos: na natureza (órbitas planetárias, formações de nuvens, ondas oceânicas, bandos de pássaros, ritmos cardíacos) e na vida social (movimentos sociais, comportamento do consumidor, crescimento urbano, conteúdo viral, crashes de mercado, engarrafamentos fantasma).
"Caos e prevalente em sistemas complexos: pequenas variações nas condições iniciais de um sistema podem levar a resultados vastamente diferentes, a ponto de o resultado parecer aleatório."
Equilíbrio em Sistemas Complexos
Equilíbrios são estados em que um sistema permanece balanceado. Equilíbrios de Nash referem-se a situações em que cada jogador escolheu uma estratégia e ninguem pode se beneficiar mudando sua estratégia enquanto os outros mantem as suas. Exemplos clássicos:
- Dilema do Prisioneiro: Ambos confessam (equilíbrio de Nash), mesmo que o silencio mutuo seria melhor
- Pedra-Papel-Tesoura: Equilíbrio = escolha aleatoria com probabilidade 1/3 cada
- Jogo de Bens Públicos: Ninguem contribui se acredita que outros não contribuirao (problema do carona)
Estudos de caso: normas sociais (filas, saudações), polarização política (Fiorina & Abrams, 2008), e redes scale-free (Barabasi & Albert, 1999). Equilíbrios em sistemas complexos são frequentemente instáveis — nações sobem, caem e sobem novamente. Bolhas econômicas são equilíbrios instáveis que estouram com pequenos gatilhos.
"Enquanto LLMs servirão como CPUs cognitivas, simulações funcionarao como GPUs cognitivas na era da IA generativa. Os grandes desafios da nossa geração não requerem uma unidade de raciocinio central complexa. Requerem unidades cognitivas relativamente simples que se juntam para formar fenômenos complexos."
Aula 12: Linguagem e Schema de Simulações
A representação correta muda tudo. O professor usa o exemplo do "Number Scrabble" de Simon (1988): um jogo abstrato de números que parece difícil, mas quando representado como um tabuleiro de jogo-da-velha, torna-se trivial. A lição: a representação amplifica a cognição.
"Os poderes da cognição vem de abstração e representação: a capacidade de representar percepções, experiências e pensamentos em algum meio diferente daquele em que ocorreram, abstraidos de detalhes irrelevantes." — Norman (1994) e Simon (1981)
Linguagens e schemas oferecem um ponto de vista. Exemplos historicos: SQL (manipulação dinâmica de dados por não-especialistas), HTML5 (suporte a multimidia e telas diversas), esquema de aprendizado por reforço (agente-ambiente-recompensa). Para simulações, precisamos de representações que padronizem a implementação de ambientes e congelem arquiteturas e memórias de agentes. O repositório do Assignment 1 oferece um ponto de vista: AgentBank, Agente Generativo, Respostas (categoricas, numericas, livres) e Ambientes (pesquisa, entrevista, rede).
Slides GABM (EN) Equilibria & Butterflies (EN) Language & Schema (EN)Combinação de agentes generativos (baseados em LLMs) com a estrutura clássica de modelos baseados em agentes. Permite simulações abertas onde agentes interagem de formas não predefinidas, gerando fenômenos emergentes.
Estado em que nenhum jogador pode melhorar seu resultado mudando unilateralmente de estratégia. Em simulações sociais, equilíbrios emergem de interações repetidas entre agentes e podem ser estáveis ou instáveis.
Pequenas variações nas condições iniciais levam a resultados radicalmente diferentes. Implicação para simulações: precisamos rodar múltiplas vezes e analisar distribuições de resultados, não resultados únicos.
Conceito de Norman/Simon: a representação correta nos torna mais inteligentes. Para simulações, isso significa que linguagens e schemas bem projetados não são apenas conveniência — são fundamentais para produzir insights.
Conjectura de Joon Sung Park: LLMs são CPUs cognitivas (raciocinio central complexo). Simulações são GPUs cognitivas (muitas unidades simples em paralelo). Wicked problems requerem GPUs, não CPUs maiores.
Estrutura padronizada para descrever simulações: AgentBank (banco de perfis), Agente (arquitetura + memórias), Respostas (tipos de output), Ambiente (tipos de interação). Analogos a SQL para bancos de dados.
Riscos e beneficios de agentes de IA representando pessoas falecidas — questões éticas profundas
O artigo fundacional sobre equilíbrios de Nash — base teórica para entender resultados de simulações multi-agente
Classico sobre design e representação — fundamento da discussão sobre linguagem de simulações
Exemplo de linguagem de visualização bem-sucedida — modelo para linguagens de simulação
Este módulo cobre três aulas densas que representam a fronteira do campo. A analogia CPU/GPU é provocativa: não precisamos de um modelo de linguagem maior para resolver wicked problems — precisamos de muitos agentes simples interagindo. O professor confessa abertamente: "Eu ensinei tudo que eu (e o campo) sei. Hoje compartilho minhas conjecturas sobre para onde estamos indo."
Conexão com o contexto brasileiro: A teoria dos jogos e equilíbrios de Nash são diretamente aplicáveis a simulação de dinâmicas políticas brasileiras. O "dilema do prisioneiro" aparece em coalizoes políticas; o "jogo de bens públicos" aparece em políticas ambientais para a Amazônia. A ideia de linguagens e schemas padronizados é relevante para criar ferramentas que democratizem o acesso a simulações — algo especialmente importante em um país com recursos de pesquisa limitados comparado a Stanford.
Aplicação INTEIA Academy: Ao projetar simulações multi-agente, lembrem-se do efeito borboleta: rodem múltiplas vezes, analisem distribuições, não confiem em um único resultado. A linguagem/schema que vocês escolherem para descrever seus agentes e ambientes determinará o que é possível descobrir.
Ética, Limitações e o Futuro
Aulas 13-14 de Stanford CS222 — Limitações fundamentais e visão de futuro (1 a 32 anos)
Aula 13: Ética e Limitações (por Helena Vasconcelos e Carolyn Zou)
A aula segue um roteiro em 5 etapas do pipeline de simulação, cada uma com questões éticas e limitações próprias:
Modelos são treinados com dados da web, dados de QA, dados de preferência (RLHF). O ponto central: esses modelos NÃO são otimizados para agir como pessoas. O salto do GPT-3 para o ChatGPT (instruction tuning) tornou o sistema "semelhante a humano" — mas sempre seguindo instruções, sempre sabendo a "resposta", sempre sendo amigável. Isso é fundamentalmente diferente de como humanos reais se comportam.
Fontes de dados limitam o que podemos fazer. Tarefas que emulam dinâmicas online ou são "baseadas em conhecimento" funcionam melhor (mais próximas dos dados de treino). Tarefas que requerem dinâmicas físicas não se traduzem bem do paradigma LLM.
Três comportamentos únicos de modelos de linguagem tornam perigoso usar metáforas de comportamento humano: Sensibilidade a prompts (reescrever o prompt preservando semântica muda os resultados), Estocasticidade (distribuições de tokens preditos podem diferir da frequência real de comportamento humano), Memorização (versões canônicas de estímulos produzem melhores resultados que versões reformuladas — ex: o teste de seleção de Wason com vogais/pares tem 75% de acerto, mas com consoantes/ímpares cai para 9%).
Credibilidade não é igual a precisão. Como validar comportamentos que queremos que agentes emulem? O próximo passo razoável e replicação de achados confiáveis e conhecidos. Mas como validar coisas completamente novas? Exemplo: o estudo do Facebook sobre feed de notícias — resultados contra-intuitivos difíceis de validar. A solução proposta (Vasconcelos & Zou et al., 2024): "inspeção local" — verificar se padrões conhecidos de comportamento humano aparecem no nível dos agentes, não dos resultados globais.
"Como não há validação sem ground truth, modelagem generativa baseada em agentes tem ameaças a validade epistêmica. Porém, simulações podem ser úteis! Então, o que podemos fazer?" — Vasconcelos & Zou et al. (2024)
Apos validação, quanto confiar? O problema da sobre-confiança (overreliance): pessoas concordam com IA mesmo quando ela está errada. Mesmo com métodos de validação e diretrizes de confiança epistêmica, simulações podem ser mal-usadas ou mal-interpretadas. A credibilidade dos agentes cria novos riscos sociotécnicos via erros interpretativos. Recomendações: escolher o nível correto de abstração, perturbar decisões de design, usar metáforas cognitivas com propósito, rastrear proveniência dos dados.
Aula 14: Simulando Nos Mesmos e Nossas Sociedades com IA
A aula final resume os 8 pontos centrais do curso e projeta o futuro do campo:
Resumo do Curso em 8 Pontos
- Simulações definem um ambiente para indivíduos e produzem suas interações
- IA generativa cria oportunidade para simulações mais abertas
- A promessa é enfrentar wicked problems
- Comece escolhendo o nível de análise
- Construa agentes individuais e seus ambientes
- Avalie por credibilidade e capacidade de prever fenômenos conhecidos
- Estabeleça fundamentos científicos (ex: agent banks) para confiar em simulações de mundos nunca vistos
- Isso promete ajudar a enfrentar wicked problems difíceis demais para abordar hoje
Visão de Futuro: 1 a 32 Anos
O campo está trabalhando para estabelecer uma fundação científica. Quais são os blocos de construção corretos? Como construir simulações robustas? Como determinar se uma simulação e falha?
Começaremos a explorar mais seriamente a construção e avaliação de interações entre agentes — blocos necessários para GABM com múltiplos agentes.
Atualmente há uma divergência sutil entre agentes baseados em ferramentas (automação de tarefas) e agentes de simulação (previsão de interações). O ingrediente central para avançar agentes de ferramentas e a simulação. Ambas abordagens terão "amadurecido" o suficiente para uma convergência séria.
Simulações semi-grandes (1 milhão de agentes) se tornarao viáveis. Se o campo ganhar um Prêmio Nobel, o trabalho catalítico provavelmente emergira nesta epoca.
IA e simulações não serão mais "novidades" — serão fatos da vida. Simulações multi-agente com muitos modelos menores serão mais poderosas que um único modelo grande, especialmente para problemas científicos e wicked problems.
Simulação será a "killer application" da IA — e se tornará uma plataforma em si mesma. Aplicações construidas sobre simulação usarao nossa capacidade de criar inúmeros multiversos para nos ajudar a navegar nosso futuro.
Ethics & Limitations (EN) Future of Simulations (EN)"Onde um grande modelo central funcionará como uma CPU, simulações desempenharão o papel de uma GPU." — Joon Sung Park, Aula 14
Método de Vasconcelos & Zou et al. (2024): validar simulações verificando padrões comportamentais conhecidos no nível dos agentes individuais, não nos resultados globais. Permite descartar simulações falhas mesmo sem ground truth para o resultado final.
Quando pessoas concordam com IA mesmo quando ela está errada. Demonstrado em múltiplos estudos empíricos (Bansal et al. 2021, Bucinca et al. 2021). Particularmente perigoso em simulações sociais onde resultados críveis podem não ser precisos.
Grau de confiança que devemos ter nos resultados de simulações. Sem ground truth, GABM tem ameaças inerentes a validade epistêmica. Aplicações ideais são aquelas que requerem baixa confiança epistêmica e não tem alternativas.
LLMs são sensíveis a reformulações de prompts e podem ter memorizado estudos famosos. Isso cria falsos positivos em replicações. Estratégias: perturbar prompts, iterar múltiplas vezes, usar versões não-canônicas de estímulos.
Framework de validação por inspeção local — como ganhar confiança em simulações com resultados novos
Análise crítica sobre se LLMs podem substituir participantes humanos em pesquisa
Demonstração de memorização em LLMs usando testes cognitivos clássicos
Como explicações podem reduzir sobre-confiança em sistemas de IA
Este módulo final e simultaneamente o mais cauteloso e o mais visionário do curso. A Aula 13, ministrada pelas assistentes Helena Vasconcelos e Carolyn Zou, é um banho de realidade necessário: LLMs não são pessoas, dados de treinamento limitam resultados, memorização cria falsos positivos, e sobre-confiança é um risco real. A Aula 14, com Joon Sung Park, projeta um futuro ambicioso — simulação como plataforma computacional em 32 anos.
Conexão com o contexto brasileiro: As limitações discutidas são amplificadas no contexto brasileiro. LLMs são treinados predominantemente em dados de países de língua inglesa, com sub-representação de contextos brasileiros. A sensibilidade a prompts pode ser ainda maior quando traduzimos ou adaptamos prompts entre línguas. Para a pesquisa eleitoral da INTEIA, a recomendação de inspeção local é especialmente pertinente: antes de confiar em previsões eleitorais simuladas, precisamos verificar se os agentes reproduzem padrões de comportamento eleitoral brasileiro conhecidos (ex: voto regional, influência evangélica, antipetismo/antilulismo).
Aplicação INTEIA Academy: A tabela de "aplicações apropriadas" é um guia prático valioso. Simulações são mais seguras quando (1) requerem baixa confiança epistêmica e (2) alternativas não existem. No contexto brasileiro, simulação de resposta a políticas públicas antes de implementação se encaixa perfeitamente nesse quadrante. Use o framework de 5 etapas (treinamento, dados, inferência, validação, confiança) como checklist para todo projeto de simulação.
Cronograma do Curso
| Semana | Tópico | Descrição | Entregas |
|---|---|---|---|
| 1 | Introdução | História das simulações: autômatos celulares, teoria dos jogos, ABM, e a revolução da IA generativa | Leituras |
| 2 | Problemas Complexos | Wicked problems, micromotivos/macrocomportamentos, aplicações de simulações | Leituras |
| 3 | Níveis de Simulação | Indivíduos vs populações, Social Simulacra, "Out of One, Many" | Leituras |
| 4 | Arquiteturas Cognitivas | SOAR, ACT-R, limitações, transição para LLMs | Leituras |
| 5 | Agentes Generativos | Memória, recuperação, reflexão, planejamento - O paper fundamental | Exercício 1 |
| 6 | Mundos Interativos | Ambientes de interação, redes sintéticas, role-play | Leituras |
| 7 | Validação | Credibilidade vs precisão, métricas, validação estatística | Leituras |
| 8 | AgentBank | Modelos de indivíduos, banco de agentes, entrevistas | Exercício 2 |
| 9 | GABM | Generative Agent-Based Models, equilíbrios, linguagem de simulações | Leituras |
| 10 | Ética e Futuro | Limitações, considerações éticas, aplicações futuras | Projeto Final |
Exercícios Práticos
Exercício 1: Criando Agentes Generativos
12 pontosObjetivo de Aprendizagem
Este exercício visa proporcionar experiência prática na implementação dos módulos principais de agentes generativos. Você vai criar agentes que armazenam e sintetizam memórias, e recuperam informações relevantes baseadas em contextos interativos.
O Que Você Vai Construir
- Sistema de recuperação de memórias (recência, importância, relevância)
- Módulo de interação por chat
- Um agente chatbot capaz de conversar usando memórias instiladas
Partes do Exercício
- Clone o repositório do exercício
- Configure ambiente virtual Python
- Instale dependências:
pip install -r requirements.txt - Configure sua API key em
settings.py
Implemente três funções em memory_stream.py:
- extract_recency: Calcula score de recência baseado no último acesso
- extract_importance: Extrai score de importância pré-calculado
- extract_relevance: Calcula relevância usando similaridade de cosseno
Implemente funções para dialogo em interaction.py:
- _utterance_agent_desc: Gera descrição do agente incluindo auto-descrição e memórias relevantes
- Crie o template de prompt para geração de respostas
Teste seu agente com perguntas factuais e reflexivas:
Critérios de Avaliação
| Componente | Pontos | Critério |
|---|---|---|
| Recuperação | 5 | 80% das memórias recuperadas correspondem ao padrão-ouro |
| Respostas do Chat | 3 | Respostas alinhadas com as memórias fornecidas |
| Reflexão | 3 | Análise plausível e reflexiva sobre o sistema |
| Estilo de Código | 1 | Código limpo, legível e bem estruturado |
Exercício 2: Interação Multi-Agente
12 pontosObjetivo de Aprendizagem
Desenvolver múltiplas personas de agentes e observar comportamentos emergentes em uma simulação multi-agente. Você vai explorar a natureza contingente e emergente de agentes simulados.
O Que Você Vai Fazer
- Criar uma persona de agente com nome e background únicos (mínimo 100 palavras)
- Rodar simulação de eleição de líder entre agentes
- Iterar e refinar sua persona baseado em observações
- Criar 5 novos agentes e prever resultados
- Analisar e documentar os resultados
Seções do Relatório
Seção 1: Consistência (3 pts)
Análise das semelhanças e diferenças entre execuções da mesma simulação.
Seção 2: Refinamento (3 pts)
Documentação das mudanças na persona e seus efeitos no desempenho.
Seção 3: Previsibilidade (3 pts)
Pre-registro de previsões e análise de acertos/erros.
Seção 4: Dinâmicas (3 pts)
Reflexão sobre padrões observados e teorias de comportamento de agentes.
Projeto Final
30% da notaObjetivo
Projetar e executar uma simulação usando agentes generativos. Você pode usar agentes criados durante o curso ou criar novos.
Exemplos de Questões de Pesquisa
- Como diferentes traços de personalidade afetam colaboração em grupo?
- Podemos simular como opiniões mudam sobre um tópico controverso?
- Que dinâmicas emergem quando agentes com opiniões diferentes trabalham juntos?
- Como eleitores de diferentes perfis reagem a notícias sobre candidatos?
Entregas
1-2 páginas com questão de pesquisa, metodologia e insights esperados
Apresentação dos resultados e insights para a turma
6-10 páginas com processo, resultados e reflexões
Recursos e Materiais
Papers Fundamentais
Park et al., 2023 - O paper fundamental do curso
Park et al., 2022
Sumers et al., 2024
Wang et al., 2024 - Limitações importantes
Repositórios de Código
Documentação e Tutoriais
Arquitetura de um Agente Generativo
┌─────────────────────────────────────────────────────────────────┐
│ ARQUITETURA DE AGENTE │
├─────────────────────────────────────────────────────────────────┤
│ │
│ ┌───────────────────────────────────────────────────────────┐ │
│ │ 1. IDENTIDADE (Scratch) │ │
│ │ Dados fixos: nome, idade, região, valores, história │ │
│ │ → Não muda (ou muda raramente) │ │
│ └───────────────────────────────────────────────────────────┘ │
│ │ │
│ ▼ │
│ ┌───────────────────────────────────────────────────────────┐ │
│ │ 2. MEMÓRIA (Memory Stream) │ │
│ │ Eventos, experiências, observações │ │
│ │ → Cresce com o tempo, tem peso de importância │ │
│ └───────────────────────────────────────────────────────────┘ │
│ │ │
│ ▼ │
│ ┌───────────────────────────────────────────────────────────┐ │
│ │ 3. REFLEXÃO (Reflection) │ │
│ │ Sintese de memórias em insights de alto nível │ │
│ │ → Gerado periodicamente a partir das memórias │ │
│ └───────────────────────────────────────────────────────────┘ │
│ │ │
│ ▼ │
│ ┌───────────────────────────────────────────────────────────┐ │
│ │ 4. RECUPERAÇÃO (Retrieval) │ │
│ │ Busca memórias relevantes para uma pergunta │ │
│ │ → Usa recência, importância e relevância │ │
│ └───────────────────────────────────────────────────────────┘ │
│ │ │
│ ▼ │
│ ┌───────────────────────────────────────────────────────────┐ │
│ │ 5. RESPOSTA (Response) │ │
│ │ Gera resposta baseada em identidade + memórias │ │
│ │ → Usa LLM com contexto completo │ │
│ └───────────────────────────────────────────────────────────┘ │
│ │
└─────────────────────────────────────────────────────────────────┘