[0:00]Eu instalei o Open Claude, cara, não sei se você tá ligado, mano. Instalei o Open Claude, ele funcionou. E eu tô fazendo esse vídeo porque teve uma galera, cara, que falou assim: "Mano, conta o seu depoimento", porque eu fiz um vídeo falando a respeito dessa cobertura e tal, do que que rolou e tal. Mano, mas eu vim cá para poder trazer meu relato sincero. Eu fui lá, testei e eu simplesmente voltei pro modelo pago da Anthropic que eu já usava antes, o Vogue Cloud Code mesmo normal, cara. E que me deixou mais incomodado, cara, nessa história, não foi nem a ferramenta, tá ligado? Foi perceber o motivo do porquê Eu falei assim, cara, isso aqui, sei lá, não tá tão legal, não. Deixa eu dar um rollback na minha decisão, deixa eu voltar para o que era. Aí antes que a galera chegue falando assim, ah, mano, mas é skill issue, é skill issue. Eu odeio essa palavra, mano. Antes você chega cagando no reggae, falando que é skill issue, mano. Não é skill issue, não foi skill issue. Não foi por conta de preço, não foi por conta de limitação do projeto, foi por uma coisa muito mais chata do que isso, cara. Eu vou te explicar nesse vídeo o que foi. Mas antes de começar, eu quero dar um contexto para você que caiu de paraquedas nesse canal e não tem a mínima ideia do que é o Open Cloud. Porque se você não acompanhou o vazamento que rolou do Claude Code, que inclusive foi abafado pra caramba, cara, você não vai entender muito de onde veio esse projeto. Mas antes de começar, já sabe, né, paizão? Já se inscreve no canal, deixa o like, ativa a notificação para não perder nenhum vídeo. Isso aqui é um boteco de tecnologia. A gente faz live aqui, terça e quinta-feira, 10:00 da manhã. Aproveita, me segue no Instagram também, @manodeyvin, que é onde a nossa resenha continua. Então, dando o contexto para a galera que caiu de paraquedas aqui no canal, mano. Pô, em março de 2026, cara, vulgo mês passado, o código fonte do Cloud Code, ele vazou via NPM. Cara, se você não assistiu o vídeo depois, eu vou deixar aqui um card aqui em algum lugar, vou deixar o link na descrição também para você poder assistir e entender um pouco mais sobre isso. Resumindo, cara, alguém basicamente esqueceu o NPM ignore e 512 mil linhas de TypeScript caíram na internet. E em 48 horas a comunidade já tinha criado o quê? O Open Claude, papai. O Open Claude, ele basicamente ele pega toda a estrutura do Cloud Code, o loop de agente, as tools, o sistema de memória que ele tem, os comandos lá de commit. Aí ele vai lá e desacopla tudo do modelo da Anthropic, ele tira o modelo da Anthropic fora, faz assim, tchau, tchau. E dentro dele ele tem um arquivo chamado Open AI.ts, que basicamente ele vai lá e faz uma tradução, tá ligado? O agente, ele continua funcionando igualzinho, sem problema nenhum, mas o modelo que responde, ele passa a ser um GPT-4, passa a ser um lhama rodando local, pode ser um DeepSeek, pode ser um Gemini, o que você quiser, paizão. A promessa era essa, cara, você vai pegar a engenharia da que a Antropic que levou, sei lá, talvez anos construindo, vai usar de graça e usar com o que eu quiser, mano. Ter essa portabilidade, tá ligado? Sem mandar um centavo, um dado para para a empresa bilionária. Aí, mano, quando eu vi essa proposta, eu falei assim: "Caraca, mano, isso foi feito para mim, porque eu bato pra caramba aqui, mano, da gente talvez parar de comer na mão dessas empresas, a gente começar a rodar local, tá ligado? Aí, pô, fiquei animadaço, eu falei assim, pô, espera aí, essa parada aqui funciona. Aí eu fui mais fundo, tá ligado? Paizão, falei assim, não, peraí, mano, se eu quero, se eu quero, sei lá, ter a minha autonomia, ter minha própria máquina. Chegar um dia, sei lá, no nível do Fábio Akita, de montar uma máquina pika das galáxias para poder rodar um modelo foda aqui em casa, localhost, mano. Porra. Aí eu queria o sonho completo. Eu queria, mano, o agente autônomo, eu queria ele rodando offline, eu queria com zero custo de API, zero dados saindo da minha máquina. Porque eu falei assim: "Não, pô, espera aí, eu quero ir pelo caminho da autonomia, porque se der certo, cara, vale a pena eu tirar o escorpião do bolso e montar uma máquina foda aqui em casa para poder rodar." Aí eu comecei a trabalhar de verdade nele, cara. Não foi mais uma vez, não foi benchmark, não fiz teste de LeetCode, eu peguei uma task real que eu tinha que resolver e resolvi usando o próprio Lhama, tá ligado? Aí tem um agente de código, é exatamente o tipo de coisa que acelera o trabalho, porque por ser um bot, mano, eu faço muita tarefa repetitiva, tá ligado? Vou dar um exemplo de uma tarefa aqui. Por ser um bot comparador de preço, eu tinha que fazer web scraping em várias páginas. Então, basicamente, eu eu já tinha já os dados que eu precisava capturar. Ele basicamente escrevia um scrapper, ele ajustava os seletores e refatorava o loop, mano. É muito rápido, é muito bom você criar web scraping, talvez, com agente. Se você nunca fez, cara, mano, é uma delicinha. Só que aí chegou um momento, cara, que o agente, ele não consegue ajudar mais, cara. O site, ele simplesmente ele vai lá e bloqueia o seu IP. Aí não tem modelo nenhum que resolve isso. Aí para poder, mano, é meio que resolver esse problema, eu comecei usar a própria a Data Impulse. Não sei se já ouviu falar, cara. Aí eu gostei porque tem mais de 90 milhões de IPs, em 195 localizações, com suporte HTTP, HTTPS, SOCKS5. E o que mais me ajudou foi o controle de sessão, cara. Dá para rotacionar IP ou manter o IP fixo por um tempo, dependendo do que o meu scrapper precisa. E eu gosto de usar, cara, o Data Impulse porque ele tem um modelo lá daquele Pay-as-you-go. Basicamente você só paga pelo tráfego, ele não expira, tá ligado? Eles têm uma parada lá que você consegue contratar proxy residencial a partir de 1 dólar por GB e dá para testar a partir de 5 dólares. Coloca cinco dolinha lá, dá para testar, tranquilo. Então, você tá construindo alguma alguma automação que você tá precisando de algum servidor de proxy, mano, eu já deixo essa pequena recomendação, cara. Deixei um linkzinho na descrição para você testar a Data Impulse. Só que não foi tão simples assim. Paizão, mas antes de eu falar dessa minha experiência de como eu rodo e tal, eu quero te mostrar como que instala isso, mano, porque isso é ridículo de simples. E eu quero que você consiga produzir para você ter seu próprio feedback e me falar depois se valeu a pena ou não. A galera já sabe, cara, que eu tenho um home lab aqui em casa, que eu rodo tudo dentro do meu Proxmox, que eu crio aquela estratégia que até o Akita lá falou no flow, o Akita já falou aqui com a gente aqui. Que é criar um esquema de AI Jail. Basicamente, cara, eu subi uma VM no meu Proxmox, tô usando lá o Ubuntu 24. Mas se você você não tem Proxmox, cara, não tem problema, mano. O Ubuntu 24 puro instalado na máquina física também funciona, num WSL no Windows, ou talvez numa VPS. Se você for contratar uma VPS, mano, aproveita e escolhe a Hosting que usa meu cupom, Mano Deyvvin, tá ligado? Aí, bora para um tutorialzinho rápido, cara, tutorialzinho rápido para você, mano, entender como que você é molezinha de instalar. Primeira coisa, você precisa ter um Node.js instalado. Se você não tiver, cara, instale o Node via NVM, cara, que é o mais recomendado. Você vai rodar este comandinho aqui embaixo, tá vendo? Basicamente você vai dar um curl para esse endereço aqui, e vai dar depois o NVM install traço, traço LTS e beleza, cara, é só isso, só esse comandinho aqui. Depois você tiver o Node instalado, cara, você vai precisar instalar o Open Claude via NPM Global, que é simples, é só esse comando aqui, você vai dar o NPM install menos G, que é onde ele vai instalar globalmente e vai colocar isso aqui, exatamente isso aqui. Pronto, é isso. O cara já vai estar instalado e você já pode escolher qual modelo usar. Se você quiser rodar o GPT-4, você vai precisar da chave da OpenAI. Basicamente você vai precisar fazer esse exports aqui, tá ligado? Tem lá o primeiro falando Cloud Code use OpenAI, vai colocar um lá, vai colocar a API key, vai colocar o modelo que você quer e depois você vai rodar Open Claude. Só isso. Ah, não, paizão, eu tenho uma máquina aqui boa, eu tô rodando um Lhama aqui, eu quero rodar tudo local. Então, mano, é tranquilo para você poder rodar no Ollama, por exemplo. Basicamente, você vai baixar o Ollama, nesse nesse comando aqui, tá ligado? Você vai dar um curl nessa URL aqui. Depois você vai dar um sh Ollama pull e pronto, beleza? Aí para subir o Open Claude, apontando pro pro Ollama local, cara, basicamente são essas pequenas mudanças que você precisa fazer, tá ligado? Só isso, mano, só isso. E se você não quiser ficar exportando, tá ligado? Exportando essa variável, exportando variável de ambiente toda vez, cara, dentro do Open Claude, você pode abrir o Open Claude mesmo, colocar lá /provider, que ele basicamente ele vai te guiar num setup interativo e vai salvar tudo no .openclaude-profile.json. Eu tenho muito medo de ter essas paradas salvas, sei lá, num num arquivo físico da máquina, tá ligado? Mas se você quiser fazer, pô, você quer colocar uma chave lá de exemplo e tal, mano, tá tudo certo. E papo reto, cara, não tem mistério, cara, em 10 minutos a gente tem ele rodando, cara, e eu cronometrei. Mano, 10 minutos, tudo funcionou, já baixou todos os pacotes, tudo que eu precisava. Aí que que eu fiz? Eu falei assim: "Porra, eu vou começar a trabalhar de verdade com ele, cara. Eu não não quero pegar ele para fazer benchmark, tá ligado? Eu não quero fazer testezinho de LeetCode, esses testeszinho de brinquedo, tá ligado? Não, mano, peguei um projeto real, peguei uma tarefa real e uma pressão real que eu precisava entregar. Logicamente que eu não peguei tarefa do meu trabalho, tá ligado? Eu peguei um freelazinho que eu tô fazendo aí por fora. Aí eu comecei com o GPT-4, tá ligado? Eu queria comparar ele direto com o Cloud Code original que eu já usava no dia a dia. Aí fui lá, pô, abri esse projeto real que eu tô trabalhando nesse freela, pedi para ele fazer uma pequena refatoração que eu já sabia o resultado, já estava esperando como que aquele resultado ficaria. E, mano, funcionou, cara, foi maravilhoso. O agente ele conseguiu navegar pelo projeto, ele abriu os arquivos certo, ele propôs mudanças. A experiência visual era quase idêntica, praticamente igual, mano, não tinha muita diferença, não, mesma interface, mesmas configurações, mesmos fluxos. Aí começou a acontecer umas coisas que eu não esperava, cara. Toda vez que o agente fazia uma decisão que eu não tinha pedido, sei lá, explicitamente, tipo, uma refatoração, uma escolha de nome de variável, uma estrutura de função. Eu parava e ficava meio olhando com desconfiança, cara. Não é que tava tudo errado, tá ligado? Mas, mano, eu não tava confiando muito no que tava sendo gerado. Porque eu acho que eu apanhei tanto de tentativa e erro, por mais que, pô, a forma que eu trabalho hoje, hoje eu tento usar não 100% o TDD, mas pelo menos minimamente um TDD que eu coloco lá, coloco o resultado esperado. E, mano, toda vez que eu executava a tarefa, ele quebrava os testes, mano. Teve uma hora que deu uma alucinada que ele começou a refatorar meus testes, eu comecei a ficar puto. Então, cara, na moral, eu comecei, tipo, não confiar mais no que tava acontecendo lá. Só que aí quando eu usava, por exemplo, os modelos da Anthropic, mano, sei lá, eu pluguei o Sonnet, por exemplo, cara, eu eu já lia a sugestão e já sabia exatamente o que dava para mudar, cara. Então, a gente já tem noção, cara, quando a ferramenta ela tá certa, quando ela tá com razão, e com os modelos da própria Anthropic, cara, pô, eu eu já aprendi a diferença, tá ligado? Já aprendi quando ela tá alucinando com confiança, que é a parada que mais pega a gente, mano. E a gente sabe que o output ele é igual, tá ligado? Mas na prática, ele é bem diferente. A gente já tem essa visão, já tem esse olhar já. Só que agora com outro modelo, mano, que eu não tava acostumado, mano, é basicamente eu tava do zero, tá ligado? Nossa, mano, acho que essa curva que acabou me pegando muito. Aí eu comecei, cara, a revisar tudo com muito mais cuidado, confirmar mais, questionar mais. Aí eu percebi que o tempo que eu tava economizando com a ferramenta de graça e tal, rodando na minha máquina, eu tava gastando em revisão extra por falta de confiança no resultado que o modelo tá trazendo para mim. Aí eu fui e fiz um teste, cara, muito tosco, só que para mim, mano, pô, foi revelador pra caramba. Eu peguei a mesma tarefa, que era uma refatoração específica exatamente nesse projeto, tá ligado? Nesse web scrapper que eu tava trabalhando. Aí eu fui, rodei no Cloud Code original, e rodei no Open Cloud com o GPT-4 e rodei também no Open Cloud rodando o Lhama local. Os três chegaram num resultado bem parecido, cara. Nenhum deles teve aquele erro bizarro, tá ligado? Aquela parada que você fala assim: "Mano, delirou essa parada." Mas aí quando eu li o output do Sonnet, cara, eu li rápido e já aceitei, tá ligado? E fui embora, mano. Mas aí quando eu já lia o output dos outros dois, mano, eu lia duas vezes, eu relia, eu procurei problema, eu fiquei na dúvida. O tempo total de revisão foi muito diferente, cara. E essa diferença não tinha nada a ver talvez com a qualidade, tá ligado? Objetivo do código gerado. Tinha a ver mais com que com a forma que eu tava confiando nos artefatos que tava sendo gerado pelos modelos. Aí isso me deixou com uma pulga atrás da orelha, mano. Porque se a diferença talvez não é uma diferença técnica, se em muitas coisas o modelo chega num lugar parecido, por que que eu confio em um e fico na dúvida no outro, cara? Aí a resposta que eu cheguei, cara, foi exatamente essa, que é um pouco inconveniente, é um pouco chata pra caramba, mas eu acho que o que prende a gente, nós que somos devs, no modelo, cara, não é a interface, tá ligado? Não é talvez o preço. Porque igual eu falei, falei, mano, eu tava no Cloud Code Pro e inclusive eu lancei lá meu SaaS lá, consegui fazer uma renda para poder pagar o Max. Então a gente tenta correr atrás, tá ligado? A gente que é dev, não, vamos correr, vamos fazer um freela, fazer uma parada aqui para a gente poder pagar a parada lá, para funcionar. Então não era preço, cara, não era talvez o system prompt. É exatamente o histórico do uso, cara. É um modelo mental que você constrói ao longo do tempo, tá ligado? Sobre como aquele modelo em específico, ele funciona, sobre onde ele delira, onde não delira. E trocar de modelo usando o mesmo prompt que a gente usa, cara, é tipo a mudança de uma pessoa que tá acostumada a usar muito um celular Android, ela vai para o iPhone, cara. Inclusive foi até uma comparação que o Akita fez lá no Flow, cara, falando que os modelos de IA, eles estão, tão tipo Apple e Microsoft, Apple e Google, tá ligado? Já tá já como se fosse briga de big tech e já tem a fan base. Aí eu fiquei até me questionando, eu falei: "Cara, será que eu entrei nessa fan base?" Mas eu acho que, pô, você acaba ficando viciado. Por exemplo, uma pessoa que usa Apple há muito tempo e ela vai para o Android, ela tá tão viciada, talvez, na suposta facilidade de onde acha as coisas, configuração, isso, aquilo, ela vai para o Android e patina. Então eu tô tendo essa mesma sensação, cara, o que é mais louco que não tem nada a ver com a interface, porque a interface é a mesma. Mas essa sensação é na resposta, na hora de escrever o prompt e receber a resposta que, mano, pra mim foi muito louco isso aí. Porque o que muita gente tá fazendo confusão, cara, é que o Open Claude, ele não substitui o modelo, cara, ele substitui a ferramenta, o front-end, tá ligado? O Cloud Code lá, aquilo que você usa. Então, a ferramenta, ela nunca foi o meu problema, tá ligado? Isso aí que eu achei foda. Eu falei: "Pô, então eu nunca tive problema, porque eu já tava acostumado já e tal, então a ferramenta muda." Que inclusive entra na minha teoria da conspiração que eu falo que o futuro é o front-end morrer, porque independente do front-end, cara, o back-end acaba tendo uma importância muito maior daquilo. Então, a forma que aquele dado é trago para mim, cara, ele é trazido para mim, eu não sei como que fala essa palavra, mas, cara, o front-end pouco importa. E tem um nível mais fundo nisso, cara, que eu acho que vale você pensar, cara. Quando você abre, por exemplo, 512 mil linhas vazadas do Cloud Code, você não tá vendo a mágica, você tá vendo um loop de agente, um gerenciamento de contexto. É o front-end, tá ligado? Ele é até meio que bem sofisticado, é fácil, talvez, compreender. Porque para quem tá de fora, cara, pô, teve uma galera que fez muita confusão, achando que realmente vazou, que dava para usar, dá para usar ele craqueado. Mano, não, mano, foi só interface, foi só tela, cara. Então tela, mano, teoricamente é fácil replicar. Agora, o modelo, ele é a caixa preta, que é o back-end, tá ligado? O modelo é a caixa preta, é o back-end, mano, essa caixa preta, ela não vazou, mano. E a ferramenta realmente, ele era o open source, mas o produto mesmo da Anthropic, cara, mano, acabou, não é, não é, tá ligado? Então, veredito. Vale a pena instalar, cara, o Open Claude, mano, depende do que você quer, paizão. Se você quer entender como um agente de código, ele funciona embaixo do capô, cara, como o loop ele é construído, como as tools são definidas, como a memória funciona. O projeto, mano, ele é absurdamente educativo, cara, ele vale muito a pena porque para nós devs, cara, a gente entender essas formas, como que os engenheiros pensam. Inclusive, cara, até o Akita falou, mano, que o código ele é macarrônico, tá ligado? Eu ainda não parei para poder pegar o código original que foi vazado e meio que fazer um code review, mas diz o Akita que o código é horroroso, cara. Mas aí se você talvez tá querendo reduzir custo, tá disposto a investir tempo aprendendo o comportamento de outro modelo, eu acho que pode ser uma boa, cara. Tipo, o GPT-4 no Open Claude, ele entrega uma experiência muito próxima do original para muito trabalho no dia a dia, cara. Mas a gente sabe que, mano, tá acontecendo agora nessa bolha de ar, é que os modelos já estão ficando cada vez mais caros. Então, eu acho que não atenderia tanto, cara. Eu acho que para mim, eu pessoalmente, eu acho que o que valeria a pena era muito mais rodar um modelo local aqui na minha máquina, tranquilo aqui, e eu ter meio que essa liberdade de não ter que pagar nada mais para modelo. Mas, cara, a gente sabe que esses modelos de graça, por exemplo, DeepSeek. DeepSeek é um lixo, cara, pelo amor de Deus, eu inclusive eu uso DeepSeek para tarefa muito simples. Por exemplo, ah, eu tenho vários documentações aqui. Então eu jogo para um DeepSeek, eu tenho um agentezinho que roda o DeepSeek aqui em background, que ele pega essas documentações, cria alguns resumos e tal, e é muito mais fácil usar para tarefa muito simples. Mas, cara, pra para o dia a dia, pra hard code, pra escrever código, paizão, não dá, cara, não dá, não dá. Então, se você quiser eh privacidade total e topa talvez um um modelo mais lento, rodando no local, cara. O Ollama ele funciona e funciona de verdade, mano, funciona belezinha, tá ligado? Mas agora se você, assim como eu, cara, você já tá acostumado a usar o Cloud Code, com os modelos da da Anthropic e tal, tá tudo certo, mano, tudo belezinha, cara, papo reto. Eu acho que você vai sentir um pouco essa dor, essa dor da mudança, tá ligado? Mas, e se você instalou o Open Claude, cara, e teve uma experiência diferente, cara, melhor, pior, me fala aí, cara, qual modelo você testou? Quanto tempo você levou pra se adaptar? Comenta aqui embaixo, cara. Comenta aqui embaixo, porque, mano, a gente tá usando os comentários como se fosse um grande fórum, tá ligado? E se você quer instalar todas essas instruções, o link do repositório, eu deixei tudo aqui na descrição, tá tudo aqui na descrição para você, pô, testar, rodar, ver como é que é, tá, o tutorial, tá tudo aqui, mano. Vai lá e dá uma lida e depois volta aqui e me fala, beleza? Tá cansado de terminar o dia com dor nas costas, né, papai? No Home Office, ergonomia é um investimento. Garanta sua cadeira com cuponzinho humano e o linkzinho que eu deixei aqui embaixo.

Testei o OpenClaude... e voltei pro Claude pago
mano deyvin
16m 23s3,734 words~19 min read
Auto-Generated
Watch on YouTube
Share
MORE TRANSCRIPTS


