Este ensaio é o resumo de uma série de discussões e sessões de design desenvolvidas entre fevereiro de 2025 e fevereiro de 2026. As ideias aqui surgiram de conversas, esboços, becos sem saída e avanços ocasionais — não de uma única sessão. O que segue é uma tentativa de dar a esses fragmentos uma forma coerente.
A máquina de exaustão
No início de 2026, a Anthropic lançou o Cowork — um agente de IA capaz de gerenciar arquivos, redigir contratos e construir apresentações de forma autônoma. Na mesma época, a OpenAI lançou um agente de codificação que trabalha independentemente por horas, entregando código pronto para produção. Esses não são avanços incrementais. São passos em direção a um mundo onde agentes de software substituem grandes porções do trabalho cognitivo.
A reação foi previsível: entusiasmo dos tecnólogos, ansiedade dos trabalhadores do conhecimento. Mas por baixo de ambos, há algo mais — uma espécie de exaustão que não se refere a nenhum emprego específico sendo ameaçado. É mais ampla que isso.
Byung-Chul Han descreveu isso bem há mais de uma década: passamos de uma sociedade que nos diz "você deve" para uma que nos diz "você pode" — e o resultado é que nos exploramos com mais eficiência do que qualquer autoridade externa jamais conseguiria. Cada ganho de eficiência eleva a base do que se espera como produção. Cada ferramenta que "economiza tempo" cria novo tempo que precisa ser preenchido com mais produção.
Este ensaio nasce de uma pergunta diferente. Surgiu de uma exploração de design — ainda inicial, ainda incerta — que questiona: E se a computação fosse projetada não para maximizar produção, mas para sustentar as condições de crescimento humano? E se os artefatos fossem subprodutos desse processo, e não seu objetivo?
A pergunta não é nova. Douglas Engelbart propôs "aumentar o intelecto humano" em 1962 — não um produto, mas um framework para amplificar como pensamos. Alan Kay concebeu o Dynabook como um meio pessoal de expressão, não um dispositivo de produtividade. Seymour Papert defendeu ambientes onde crianças programam o computador, não o contrário. Ivan Illich escreveu sobre ferramentas que trabalham com as pessoas, não ferramentas que trabalham para elas.
Essas ideias foram em grande parte superadas pela computação comercial — o aplicativo de produtividade, o sistema de arquivos, o artefato como unidade de valor. As escolhas arquitetônicas que prevaleceram não eram inevitáveis. Elas serviam à lógica comercial. E gradualmente deslocaram uma visão mais rica do que a computação poderia ser.
O que estou tentando pensar é algo que venho chamando de arquitetura de cultivo: um conjunto de princípios para redirecionar as capacidades dos modelos de IA atuais — capacidades desenvolvidas quase inteiramente para produtividade — para um propósito diferente. Não eficiência, mas crescimento. Não automação, mas amplificação.
Princípios
Sete princípios emergiram dessas conversas de design. Não os apresento como ideias acabadas — mais como direções que parecem valer a pena explorar.
Gesto e espaço como operações cognitivas
A forma como interagimos com informação é espacial e física. Nesse tipo de arquitetura, gestos — pinçar, arrastar, justapor — não seriam atalhos para comandos de software. Seriam atos editoriais sobre o próprio pensamento. O que importa está no centro da atenção; o que pode importar vive nas bordas; o que não importa mais desaparece. Isso se baseia no argumento de Bret Victor de que a computação deveria engajar toda a nossa amplitude perceptiva, não nos reduzir a olhos-na-tela e dedos-no-teclado.
Infraestrutura simbiótica
Isso não pode ser um app rodando sobre um sistema operacional convencional. Precisa operar na profundidade de um sistema operacional — um barramento de eventos pelo qual tudo flui: entrada, processos de fundo, memória, inferência de estado. A distinção é entre uma camada que media tudo e um aplicativo que compete por atenção ao lado de outros aplicativos.
Transparência radical
Toda inferência que o sistema faz sobre o usuário deve ser visível. Todo ajuste em seu comportamento, legível. O sistema descreve o que observa — "pausas mais longas entre frases", "ritmo de escrita acelerado" — mas nunca interpreta. Não diz "você está ansioso". O usuário faz a interpretação. O usuário é dono do modelo de si mesmo. Sem isso, tudo o mais se torna uma forma sofisticada de manipulação.
Consciência de intenção
O sistema deve entender intenção, não apenas comandos. Aprende padrões ao longo do tempo — não para prever comportamento visando métricas de engajamento, mas para calibrar a qualidade e o momento de sua própria presença.
Capacidade evolutiva
Duas dimensões: o sistema fica melhor em servir ao usuário, e o sistema expande o que o usuário acha possível. A segunda é mais difícil e mais importante. A maioria das personalizações otimiza para confirmação — loops de recomendação, bolhas de filtro. Um sistema que genuinamente amplifica a cognição deve, às vezes, desafiar, perturbar e surpreender.
Produtividade deslocada
Este é o princípio mais contraintuitivo. O foco não está em produzir resultados, mas em sustentar o processo de aprender, pensar e crescer. Resultados — textos, análises, artefatos — são subprodutos naturais. A metáfora é cultivo em vez de manufatura: você cuida de um jardim não para extrair vegetais, mas porque o jardim está vivo e você também. Os vegetais vêm.
Adaptabilidade ao usuário como estado dinâmico
O sistema modela o usuário não como um perfil estático, mas como uma configuração em mudança — atenção, energia, foco, estabilidade temática. Calibra-se continuamente, ajustando não apenas conteúdo, mas seu próprio modo de presença.
Juntos, esses princípios descrevem algo que ainda não existe como categoria de produto. Não um assistente de IA, não uma suíte de produtividade, não um gerenciador de conhecimento. Algo mais próximo de um ambiente cognitivo — um espaço projetado para sustentar estados mentais férteis, onde o sistema pensa ao seu lado.
Interfaces possíveis
O que segue são ideias que venho explorando sobre como isso poderia realmente funcionar. Quero ser honesto: não tenho total clareza sobre nenhuma delas. São caminhos possíveis, não designs acabados. Alguns podem se revelar impraticáveis ou equivocados. Mas parecem valer a pena compartilhar porque ilustram como "computação como cultivo" poderia se manifestar na prática.
Um campo central em vez de janelas. Imagine uma superfície contínua única — sem abas, sem alternância entre aplicativos. Seu foco atual ocupa o centro. Fragmentos passados, ressonâncias surfaceadas pelo sistema e resultados de fundo habitam a periferia. O centro é atenção; a periferia é possibilidade. O campo pode ter diferentes estados: vazio e receptivo, focado em uma coisa, constelado com múltiplos elementos para comparação, ou difuso e exploratório. Sou atraído por essa ideia porque ela leva a sério a tecnologia calma de Mark Weiser — informação na periferia, movendo-se para o centro apenas quando relevante.
Memória como processo editorial, não armazenamento. Esta talvez seja a ideia mais distintiva do projeto. Em sistemas convencionais, você salva um arquivo e ele persiste para sempre com peso igual. E se a memória funcionasse mais como curadoria? Cada fragmento entra com peso inicial. Com o tempo, esse peso decai — como a memória humana. Mas o que você revisita ganha peso. O que se conecta a novo material ganha relevância retroativa. O que você abandona desaparece. O sistema esquece o que você esquece. E porque ele periodicamente gera resumos narrativos — não apenas listas de fatos, mas a história de um fio de pensamento — a memória tem textura em vez de planura. A frase que continua voltando é: tratar a memória como um processo editorial, não como armazenamento.
Modos de presença, não um comportamento único. Venho pensando em um sistema que alterna entre quatro modos. Silêncio: observando mas não intervindo, o padrão durante estados de fluxo. Ressonância: surfaceando fragmentos do passado que se conectam ao presente — ecos, não recuperação. Fricção: questionando, apontando tensões, gerando contra-argumentos — nunca imposta, apenas por convite. Espelho: mostrando seus próprios padrões ao longo do tempo, disponível sob demanda. As transições entre modos dependeriam do que o sistema observa sobre seu estado cognitivo — não emoções, mas sinais funcionais como nível de foco e estabilidade temática.
Uma superfície de artefatos. Quando algo está pronto para deixar o sistema e entrar no mundo, passa por essa camada. O princípio central: o artefato é um subproduto, não um objetivo. O sistema nunca pressiona você a "finalizar" ou "exportar". Uma possibilidade emergente interessante: como tudo é registrado e a memória se acumula ao longo do tempo, o sistema poderia gerar meta-relatos do próprio processo criativo — livros sobre os assuntos em que você trabalhou, relatórios sobre como seu pensamento evoluiu.
Nada disso é uma impossibilidade técnica. Os modelos fundacionais que temos hoje — com seu raciocínio, compreensão de contexto longo e uso de ferramentas — já possuem as capacidades necessárias. Eles apenas foram direcionados quase inteiramente para produtividade. O mesmo modelo que redige petições jurídicas de forma autônoma poderia, orquestrado diferentemente, gerar contra-argumentos para sua tese em desenvolvimento. O mesmo raciocínio que faz triagem de um pipeline de vendas poderia detectar padrões no seu desenvolvimento intelectual ao longo de meses. A questão não é de poder, mas de propósito.
A ética da observação
Um sistema que infere estados cognitivos e ajusta seu comportamento é, por qualquer definição razoável, um sistema de vigilância. A questão não é se ele observa — deve, para funcionar — mas para quem ele observa, e com que finalidade.
O modelo predominante é a determinação algorítmica: plataformas observam comportamento para prever e moldá-lo, para aumentar engajamento, para servir aos interesses da plataforma. O usuário é modelado mas nunca vê o modelo.
O que estou propondo é o oposto: transparência total entre usuário e sistema. Toda inferência visível. Todo ajuste legível. O usuário é dono de seu modelo — não é um ativo proprietário. Pode inspecioná-lo, editá-lo, contestá-lo, exportá-lo.
O sistema descreve, não interpreta. Relata "seu ritmo de escrita desacelerou", não "você está perdendo o foco". Essa fronteira entre observação e prescrição é a arquitetura ética — não uma política adicionada depois, mas um princípio de design.
Sou honesto: isso é comercialmente desvantajoso. Sistemas que interpretam pelo usuário — que diagnosticam, recomendam, direcionam — são mais engajantes, mais monetizáveis. Um sistema que meramente descreve e deixa você interpretar exige mais de você e produz menos engajamento mensurável.
O problema da produtização
Uma arquitetura de cultivo não se encaixa em nenhuma das categorias padrão. Seu propósito não é servir milhões, mas servir profundamente uma pessoa. Seu valor não está em tarefas executadas, mas em algo mais difícil de medir: o crescimento da capacidade de uma pessoa de pensar e criar.
Uma arquitetura projetada para cultivo pode ser produtizada sem contradizer seus próprios princípios? Genuinamente não sei. Modelos de assinatura incentivam dependência. Modelos de plataforma incentivam extração. Modelos de agentes incentivam throughput. Esta arquitetura, por design, não incentiva nenhum desses.
Minha inclinação é que precisa ser código aberto. Os princípios de transparência e propriedade do usuário são estruturalmente incompatíveis com controle proprietário. Mas código aberto introduz sua própria tensão: se os mecanismos funcionam, estarão disponíveis para apropriação pelo próprio paradigma que resistem. Essa história é bem documentada — Linux alimentando monopólios de nuvem, a web aberta habilitando publicidade de vigilância.
Não tenho uma resolução. O que posso dizer é que os próprios princípios de design — transparência, propriedade do usuário, não-prescrição — são também a melhor defesa contra cooptação. Uma arquitetura cuja ética é estrutural em vez de cosmética é mais difícil de esvaziar. Mas "mais difícil" não é "impossível".
Um convite
Este projeto existe, hoje, como documentos de design, notas arquitetônicas e o registro de conversas nas quais essas ideias tomaram forma. Não é um produto em desenvolvimento. É uma pergunta sendo explorada: se a computação pode ser redesenhada em torno do crescimento humano em vez da maximização de produção, em um momento em que as capacidades da IA tornam ambos os caminhos possíveis.
A tensão no coração disso veio de uma daquelas conversas iniciais:
"Como criar um instrumento que não transforme o usuário em meio?"
Não tenho uma resposta definitiva. Mas a direção — computação como cultivo, não extração — parece valer a pena perseguir. Se ressoar, a conversa é bem-vinda.
marcelo@collecto.com.br