[0:00]Hamilton, mi agente es un tonto. No funcionan mis agentes en OpenClaw, mi OpenClaw es demasiado tonto. Es la queja más común que estoy recibiendo de todos ustedes en redes sociales. Es como que Hamilton mis agentes son demasiado estúpidos.
[0:18]¿Cómo me dices tú que tienes un agente inteligente que te está orquestando tu equipo todo el día, todos los días, a toda hora cuando yo medio trato de hacer algo con mi OpenClaw y parece literalmente Ralph sacándose mocos y haciendo maromas?
[0:33]No tiene ningún sentido Hamilton, eres un mentiroso.
[0:36]Ey, no soy un mentiroso. Es que hay que entender cómo funciona la inteligencia artificial para poderle sacar el mayor provecho.
[0:46]Vamos a continuar con esta serie de vídeos sobre OpenClaw en el cual el día de hoy vamos a estar yendo un poco a seguir navegando la documentación de OpenClaw y vamos a estar viendo uno de los componentes más importantes dentro de OpenClaw, que van a hacer que tus agentes sean mucho más inteligentes y que puedan ejecutar tareas de mucha mejor forma, que optimicen el consumo de tokens y que realmente sean tu asistente personal.
[1:11]Vamos con ello. Lo primero que vas a hacer es que te vas a ir evidentemente a OpenClaw documentation, le vas a dar acá docs y nos vamos a ir a la documentación de OpenClaw.
[1:19]Recuerden que en un momento estuvimos viendo todo lo que era la parte de la instalación o el seteo de cada uno de los archivos para qué servían todos y cada uno de los archivos de OpenClaw.
[1:33]Se me perdió reference por acá están, acá, ¿cierto? El template para qué sirven todos y cada uno de estos archivos.
[1:40]Hoy vamos a estar trabajando en esa parte que le hace falta para que este señor agent y para que este soul realmente tengan inteligencia, que realmente se sientan finos, duros, poderosos.
[1:57]Qué es eso Hamilton? Bien, no es nada más y nada menos que algo que se llaman las skills.
[2:02]Es algo super sencillo. De hecho, las skills las sacó Anthropic el año pasado. Skills, sí, habilidades, en inglés, skills, Anthropic.
[2:12]Y si no lo sabes, no sabes qué es, no sabes cómo funciona, te voy a pasar esta documentación, te la voy a dejar en la descripción de este vídeo para que puedas entender qué son las skills.
[2:22]En un gran resumen, en un gran, gran, grandísimo resumen, porque esto parece ser demasiado sencillo, pero le da un nivel de profundidad a nuestra inteligencia artificial o a nuestros agentes que no tiene ningún sentido.
[2:35]Yo te voy a explicar por qué funcionan y cómo puedes tú utilizar la magia de las skills, pero ahora dentro de tu OpenClaw.
[2:43]Las skills son un componente que creó OpenClaw el año pasado dentro de una arquitectura de sus modelos, que lo que hacen es simplificar la cantidad de tokens que yo le paso a los modelos, a los agentes, en el momento de la inferencia, o sea, cuando están haciendo una respuesta.
[2:58]Qué pasa constantemente o qué pasa normalmente cuando tú estás trabajando con inteligencia artificial?
[3:04]Acá en estos momentos te estoy mostrando una de alguna aplicación que estoy trabajando y tú estás viendo aquí algo que se llama el contexto.
[3:10]Esta barrita que estás viendo acá, un porcentaje, es un cálculo que va haciendo constantemente este framework que estoy utilizando para calcular la ventana de contexto efectiva que tiene o la ventana de contexto que le queda al modelo.
[3:26]Los modelos vienen trabajando desde hace aproximadamente, desde noviembre del 2022, ChatGPT, vamos a ver el primer modelo.
[3:40]Hace 14 horas, 5.1 Pro. Mira, nos enteramos de una noticia, noviembre. El día que todo cambió. Noviembre del 2022. Este día fue el día que todo cambió, lanzaron ChatGPT en ese momento.
[3:57]Y en estos momentos ChatGPT 3.5 tenía solamente una ventana de contexto de, una cosa absurda, mira. Context Windows, creo que eran como 4.000 tokens.
[4:08]4.000 tokens. Mira, ventana efectiva de 16.000 tokens.
[4:13]Bueno, era un poco más. Yo sé que era de 4.000 y luego la subieron a 16.000. Mira que sí, mira, 4.000, una versión de 4.000 y luego se extendió a 16.000, eso no es nada.
[4:22]O sea, eso es Dios. Eran cuatro palabras. Esta gente hizo magia con esta mierda. Tokenizer, si tú te vas a ver a Tokenizer, así es que se ve la ventana efectiva de contexto.
[4:35]Ahora imagínate esto muchas veces, mira, literalmente una conversación y ya estaba ChatGPT alucinándose, estaba volviendo mierda por completo.
[4:46]Ah, pero a medida que ha avanzado el tiempo, la ventana de contexto ha ido evolucionando. Context Window AI models evolution.
[5:03]Vamos a sacar a ver si encontramos una imagencita por acá. Mira, use any understanding, por ejemplo, increasing, evolución de las ventanas de contexto.
[5:10]Mira esta imagen tan bonita, evolución de las ventanas de contexto. Bueno, muéstrame pues, mira, fueron saliendo, siguieron saliendo, tenían curvas exponenciales. Mira, GPT 1, luego tuvimos GPT 2, GPT 3.5, 10.000, y hoy en día llama 4. Aquí está, 10 millones de contexto. Pues acá, eh, 10 millones. Ajá.
[5:37]Sí, si realmente soportaras 10 millones como dicen, pues realmente serían el mejor, pero hoy en día estamos prácticamente que en esta ventana de contexto efectiva de 1 millón de tokens, donde los modelos tienden a decrecer su razonamiento aproximadamente en un 76%, ¿cierto?
[5:54]En algunos casos hasta un 44% tienden a bajar la ventana efectiva de contexto a medida que incrementan la cantidad de tokens que están trabajando.
[6:05]Y esto es debido a un paper que se conoce como el de Needle. The Needle in a Haystack. AI, curva de decrecimiento.
[6:17]Que es un paper que sacó o que han estado trabajando los científicos y los investigadores de inteligencia artificial constantemente viendo cómo hacen los modelos o cómo los modelos cuando aumentan la ventana de contexto.
[6:27]Cuando tienen que predecir el siguiente token a medida que tienen mucha más información, pues hay mucho ruido, los modelos no son capaz de recordar cuando tienen mucha información.
[6:36]Y recordemos que ellos no entienden palabras, entienden qué, tokens. Así es, ellos entienden, recuerda que entienden son tokens. Bien.
[6:44]Por qué es esto importante? Regresando a cómo iniciamos en las skills, porque justamente las skills lo que llega a mejorar es esto. Es la ventana efectiva de contexto.
[6:55]Y cuánta información tú le puedes cargar a un modelo de lenguaje natural sin hacerle mucho ruido en la ventana de contexto efectiva.
[7:05]Y obviamente esto, como ya te imaginarás, va a mejorar muchísimo, muchísimo el razonamiento, la entrega, la efectividad de tus modelos.
[7:15]Porque ahora yo no le tengo que cargar un archivo completo de 4.000, 5.000, 10.000, 15.000 tokens, sino que el modelo va a tener la capacidad de seleccionar qué skill, qué habilidad, qué herramienta tiene que utilizar, en qué momento, y esto le va a ayudar a reducir la carga cognitiva o a reducir la carga de contexto con la que tiene que ir trabajando en el momento de hacer la inferencia de los tokens.
[7:41]Bien. Ahora sí, vamos a ver entonces cómo se ve y por qué hoy en día esto afecta dentro de, dentro de OpenClaw.
[7:49]Vamos a ir a nuestro Hostinger. Vamos a abrir nuestro, uno de nuestros, ¿cómo se llama? De nuestros señores.
[8:00]A ver, que se me olvidó, por acá. De nuestros OpenClaw. Por aquí tengo un poco. Ya ni me acuerdo en dónde tengo uno que les pueda mostrar. Porque esta visual no la tengo en todos.
[8:13]Acá, ¿listo? Entonces, cuando yo me voy a ver los agent, recuerden que trabajamos esos archivos especiales en su momento, ¿sí?
[8:23]Todos estos archivos que son importantes para mi agente. Estos archivos acá, especialmente en el de memory, en el memory, OpenClaw va guardando constantemente la información con la que vamos hablando.
[8:36]Dos, en estos archivos, en el soul y en el agent, OpenClaw carga toda la información de tu negocio, de tu procesamiento, de las tareas, cómo las tiene que ejecutar, qué tiene que hacer, cuándo las tiene que hacer, en qué momento las tiene que hacer, cómo las tiene que ejecutar. Todo, absolutamente todo.
[8:54]Ya te imaginarás la carga de contexto que esto implica muchas veces para el modelo, para el modelo. Vamos a copiarlo rápidamente.
[9:03]Que esto de hecho es un ejemplo, pero esos archivos se ven normalmente muchísimo, muchísimo más grandes, pero mira que aquí ya tengo 1.600 tokens. 1.600 tokens. Esto normalmente ahoga mucho el modelo.
[9:14]Así que bien, ¿qué podemos hacer entonces Hamilton para mejorar este señor de acá y yo no poder, yo no ensuciar tanto la ventana de contexto de mi agente y que sea más inteligente? Así como Orka, que literalmente te hace todo Hamilton, orquesta todo tu equipo.
[9:31]Esa, mira, esta vaina. ¿Saben qué está haciendo Orka? Mira, crea hilos de conversación de los chicos, mira. Crea hilos de conversación, les pide por aquí los reportes diarios, los chicos le pasan el reporte a Orka, luego todos los días por la noche.
[9:45]Esta señorita, señorito, déjame en los comentarios si sabes qué es Orka. Si no, tienes que ir a buscar en los vídeos qué es Orka 2. Si sabes qué es Orka, para ti, ¿qué es, es hombre o mujer?
[9:53]Para mí es mujer, Orka. No sé por qué. Orka, mujer. ¿Listo? Ah, y Orka todos los días por la noche me deja un PDF, un resumen, pero señor pedazo de resumen de cómo está performando mi equipo, qué es lo que está haciendo, cómo podemos mejorar, qué podemos hacer todos los días para ser mejores profesionales.
[10:17]Miren qué belleza, todos los días, todos los días, Orka nos ayuda a ser mejores de lo que fuimos el día de ayer.
[10:24]Esa es nuestra obsesión. Cómo ser mejores constantemente. Listo, espérame que estoy buscando el PDF. Mira, acá. El día de ayer nos dejó este reporte donde nos muestra cómo nuestro equipo está performando, cómo está terminando las tareas, qué es lo que está haciendo, a qué horas lo está haciendo, por persona, detallado.
[10:40]Es una maravilla. Pero claro, Hamilton, estás haciendo esto todo en estos cuatro archivos. No, para nada. Yo lo que hago es que voy y busco, y en el siguiente vídeo te voy a, te voy a revelar todo el secreto de cómo he construido Orka.
[10:54]Orka ahorita mismo es un agente extremadamente avanzado, que te lo digo que para yo haberlo construido antes en código, me hubiera tardado un año como mínimo en hacerlo, para hacerlo en Ennin hubiera sufrido demasiado.
[11:07]Pero ahora es súper sencillo construir agentes, solamente tienes que tener en tu mente y entender cómo funciona la inteligencia artificial generativa, cómo funcionan los LLM's y cómo estos se integra con agentes para poderle sacar el mayor provecho.
[11:23]Quiero que me dejes en los comentarios si te gustaría que liberara un curso que tenía en una comunidad privada de agentes el año pasado, la cerré.
[11:34]Y tengo por allí un curso muy especial, demasiado, un curso muy bueno, que es acá, de cero a automatización, reto de 30 días, agentes, primera semana, que es por semanas.
[11:50]Y quiero liberarlo para que más personas puedan aprender las bases tanto de la automatización como lo que es, qué realmente es un agente de inteligencia artificial.
[11:58]Y quiero liberar esto para que tú puedas hacer un reto de 30 días conmigo y puedas realmente entender cómo construir agentes.
[12:07]Yo, o a mí se me hace muy fácil construir agentes porque entiendo todas estas bases y te lo quiero entregar, pero quiero saber en los comentarios si realmente te gustaría que lo liberara.
[12:15]Bien. Ahora, volvamos entonces a nuestras skills y a y a Anthropic.
[12:22]Entonces, cuando yo entiendo nuevamente cómo funciona esa ventana efectiva de contexto, cómo se carga, eh, en en un LLM, ¿cierto?
[12:30]Toda esa ventana de contexto, cómo le afecta cuando yo le paso un archivo muy grande y que puede que dentro de mi OpenClaw exista un archivo literalmente de de 7.000, 8.000, 10.000 tokens.
[12:44]Que a ver, OpenClaw tiene una limitación, no le podemos pasar 8.000 tokens, pero de todas formas vas ahogando el contexto.
[12:50]Entonces, lo interesante es que dentro de OpenClaw también tenemos el concepto de las skills y la puedes buscar dentro del ClawHub AI Skills.
[13:00]Pero ojo, ah, las skills son ahora la forma más peligrosa, delicada de inyectar vulnerabilidades en los agentes.
[13:12]Porque lo que la gente está haciendo es inyectar scripts que se pueden ejecutar dentro de las máquinas y robarte o secuestrarte información.
[13:20]Ahora ya te imaginarás que si tienes en tu PC personal a un OpenClaw, pues bueno, adiós información y adiós de todo.
[13:27]Si lo tienes en una VPS, pues adiós tu token de lo que tengas, entonces mi recomendación es uno, instala solamente eh skills que sean certificadas y validadas por la comunidad, ¿cierto?
[13:40]Cuando digo por la comunidad, me refiero a que tengan muy buenas estrellas, que hayan avanzado, que la gente las comente, eh que tengan muy buenas reviews, que tengan muy buena interacción.
[13:50]No te vayas a las primeras que tienen cero de interacción y otra cosa es que aquí, cuando tú te metes a una skill, entonces vas a irte a esta URL ClawHub AI Skill. De todas formas, te lo vas a encontrar en la descripción.
[14:03]Ah, vas a ir, vas a venir acá y mira que aquí dice VirusTotal, benigno. OpenClaw, benigno, o sea, que está infectado.
[14:12]No siempre, pero cuando diga infectado, pues yo no lo instalaría, pero lo que sí haría sería, ojo al dato, ojo al trucazo que les voy a dejar por acá.
[14:24]Una skill no es más que un archivo markdown creado de una forma específica con unas instrucciones muy concretas.
[14:35]Entonces como son unas instrucciones tan concretas, lo que puedes hacer es simplemente copiar esta vaina, pegarla, te vas a tu OpenClaw, en este caso si estás trabajando todavía con OpenClaw, lo puedes pegar y le puedes decir, señor OpenClaw, quiero que me replique o que me construya esta skill.
[15:18]Listo, esta es una de las formas más rápidas de hacer que tu OpenClaw sea mucho más inteligente.
[15:27]Pero de verdad, te digo que la cosa más bárbara que yo he logrado hacer ahorita mismo con OpenClaw es simplemente instalarle tres skills principales.
[15:36]Y hoy te voy a contar cuáles son esas tres skills que yo le instalé ahorita mismo a mi OpenClaw y realmente cambiaron la forma en la que OpenClaw está interactuando, cómo está aprendiendo, cómo realmente siento que se está volviendo un agente autónomo, que aprende del ecosistema, que aprende de los de del ambiente, que aprende de todo.
[15:55]Anota lápiz y papel, por favor. Necesito que te instales estas tres skills. La primera de hecho es esta self-improving-agent.
[16:03]Básicamente es esto viene de una arquitectura de los agentes que se conoce como arquitecturas eh por reflexión o reflection. Reflection Architecture Agents.
[16:15]Básicamente son una arquitectura, esta no es, eh acá sí, básicamente son una arquitectura en la cual el agente tiene la capacidad de auto, digamos de de automorarse, self-improve, sí, de de de mejorarse a sí mismo, constantemente, de aprender de los errores.
[16:38]Y esto viene de un libro muy famoso que se conoce como eh o se llama Pensar Rápido, Pensar Despacio.
[16:48]Es un libro muy bueno, muy recomendado. De hecho, lo tengo eh en mi oficina. Si te gustaría leerlo, súper recomendado, de verdad, muy pesado, es pesado, técnicamente horrible.
[17:01]Tienes que leértelo muy despierto, una horita al día, porque de verdad es técnicamente muy pesado, como que uno no lo aguanta, como que no, es no es un libro como que te devores y te lo comes como, guau, qué delicia. No, pero aprendes mucho.
[17:12]Entonces hay que comer, hay que devorárselo como que una horita al día, pero es muy bueno. Y básicamente este libro lo que habla es cómo nosotros, nuestro sistema, eh, nosotros tenemos dos, dos cerebros, ¿cierto?
[17:21]o dos formas de pensamiento en el cual el sistema uno es este sistema o este pensamiento inmediato en el cual reacciona de forma inmediata a los eventos.
[17:34]Y tenemos un sistema dos o una segunda forma de pensamiento o de razonamiento, más que de pensamiento de raciocinio, en el cual está a la espera cuando a este señor le queda grande algo y este señor dice, oiga, tengo que llamar al sistema dos, que está guardado, consume muchísima energía.
[17:48]Entonces a el cuerpo, a el mismo cerebro le da mucha pereza constantemente llamarlo porque sabe que cuando lo llama queda, ah, extremadamente cansado.
[17:57]Entonces esta arquitectura de reflection lo que ayuda es, oiga, yo cómo puedo hacer que mis sistemas utilicen este mismo, este mismo sistema de de de sistema uno, sistema dos, de reflection para constantemente entender. Uno, cómo pueden dirigir una, una tarea a razonar de una forma mucho más compleja.
[18:20]Según cada tipo de pensamiento o de raciocinio y dos, cómo constantemente yo dentro en un loop, de hecho, por aquí, aquí estamos viendo justamente estos loops de auto mejora, sí, cómo constantemente yo puedo mejorar e iterar, sí, sobre eh, sobre lo que yo quiero generar, cualquier tipo de de razonamiento que yo quiero generar, cómo yo puedo mejorar constantemente de mis ambientes, de lo que es, de la interacción que estoy haciendo.
[18:45]Este patrón de de agentes, este agente, este patrón agéntico es bien interesante y lo que puedo hacer ahora es no lo tengo que desarrollar yo, sino que prácticamente con una skill y con OpenClaw puedo hacerlo.
[18:57]Y qué lograron, qué lograron estas personas es crearon tres archivos principales, uno que es de learnings, errors y future requests, en el cual tú le dices qué esperarías, cierto, cuál es la la función objetivo que quieres hacer, que él constantemente esté aprendiendo.
[19:11]Acá tú le vas a, le vas a pedir cuáles van a ser sus capacidades, qué es lo que tiene que hacer, qué tiene que estar aprendiendo constantemente. Dos, aquí cómo va a ir guardando los errores, cada que se equivoque en algo, va a reflexionar, va a pensar, va a entender.
[19:25]Y tres, esas aprendizajes que tuvo después de haber cometido un error, con base en su función objetivo. Todo esto lo va a guardar en un archivo, en una carpeta que se llama learnings y esto va a dotar a tu agente de unas capacidades completamente absurdas.
[19:40]¿Qué te recomiendo yo? Eh, obviamente que tienes que darle una muy buena instrucción de qué es lo que esperarías tú que haga tu agente. Recuerda que te he dicho cientos de veces en mi canal, y es no seas ambicioso con la cantidad de tareas que le vas a poner a hacer a un agente.
[19:58]Solamente una tarea o un, literalmente es como pensar en un humano. Si tú mismo te pones demasiadas tareas, no haces ninguna tarea bien. Como que te dispersas y terminas disperso en ciertos de tareas.
[20:11]Exactamente lo mismo con un agente. Trata de darle eh mucha especificidad en las tareas que va a hacer. Entonces esta skill súper recomendada para que tu agente pueda empezar a mejorar y aprender.
[20:23]Cada día va a ir aprendiendo de su interacción contigo, con la tarea que está haciendo, con lo que sea que estás construyendo y va a hacer cada vez más efectivo.
[20:32]Dos, segunda skill que te voy a recomendar, es esta skill de ontología. Ontology. ¿Qué es una, qué es la ontología? Básicamente es la razón de ser de las cosas.
[20:43]De hecho, Palantir, que es uno de los mayores referentes de inteligencia artificial del mundo, Palantir Technology, Palantir es uno de los mayores eh promotores de ontology first. Ontology first.
[20:56]Y tienen, de hecho, un curso, no un curso, pero tienen como una sesión específica donde enseñan cómo construir ontologías. Esto es bien bonito.
[21:05]De hecho, en mi en mi startup Sale Ads, nosotros construimos Sale Ads basado en una en una ontología del marketing.
[21:11]Qué era la ontología del marketing dentro de Sale Ads, nosotros cómo proyectábamos todo esta visión que estábamos construyendo. Te voy a dejar esto en los comentarios por si te gustaría entender un poco más, temas más, más avanzados de inteligencia artificial.
[21:26]Esto es lo que básicamente está moviendo nuestro mundo. Eh, Palantir, antes de la inteligencia artificial, hay cosas que inclusive hay por debajo de la inteligencia artificial, y esto es una de ellas.
[21:36]Ahora, cuando yo entiendo cómo funciona la ontología, sí, y vengo justamente dentro de esta skill ontology, lo que le estoy dando a mi agente es la entidad de sacar, perdón, es la capacidad de sacar entidades y dentro de sus memorias capturar relaciones de entidades y crear relaciones eh o crear entidades ontológicas de la convivencia de sus memorias o de la extracción de sus memorias para entender cómo funciona la interacción con el mundo a través de entidades, tipos y propiedades.
[22:09]Y cómo estas propiedades y entidades se relacionan. Nuevamente te puedes ir a leer en Palantir cómo funciona esto y te va a encantar porque es una cosa bien, bien interesante.
[22:19]Ahora, ¿por qué es importante esta skill? Porque te voy a revelar la tercera y última skill que está cambiando la forma en cómo Orka está trabajando hoy en día, y le ha dado literalmente superpoderes y esteroides a esta vaina para que sea un agente descontrolado.
[22:34]No se le olvida nada, constantemente está interactuando, está aprendiendo, y es Andrew Karpathy sacó algo que se llama la Wiki LLM.
[22:43]Esta Wiki LLM es una forma, esto salió hace como 15 días, y hace 15 días exactamente. Y la Wiki LLM es Andrew Karpathy lo describe como la forma en la que yo puedo tener relaciones a través de grafos de conocimiento.
[22:57]Entonces, cuando yo me voy a ver los los grafos de conocimiento, grafos GraphRAG, vamos a ver GraphRAG, para que entiendan un poco. No sé si han visto mucho esto en internet, que está super común, está super de moda, ah, después de que Andrew Karpathy sacara justamente eh este post de de los grafos.
[23:17]Luego, si quieren, podemos ver cómo funciona más a detalle eh los grafos dentro de GraphRAG eh específicamente para hacer con agentes más avanzados, ya a nivel de código.
[23:25]Pero esto lo que me permite es crear relaciones entre diferentes eh connotaciones semánticas, o sea, trata de extraer relaciones semánticas y las une como esta palabra o este contexto o esta entidad semántica.
[23:45]Por eso la palabra importante entidades. Esta entidad puede estar relacionada con muchas otras entidades que yo como humano no podría entender esas relaciones.
[23:54]Esto es a grandes rasgos lo que es lo estos grafos eh semánticos, porque de hecho están con embeddings, esto es un embedding. Literalmente cómo funcionan los RAGs eh o los embeddings, ¿cierto?
[24:08]Los RAG con embedding, sino que lo crea ahora a través de relaciones semánticas por entidades, ontológicas, podríamos decir entre comillas ontológicas, porque no no per sé tienen que ser ontológicas, pero le dan muy, muy valor.
[24:18]Ahora, lo que Andrew Karpathy dice es, oiga, si ya tenemos los los RAGs, los GraphRAGs, por ejemplo, o los o los grafos de conocimiento, ¿qué es lo que más difícil hoy en día para crear un GraphRAG? Es el experto en el dominio concreto para que pueda crear estas relaciones ontológicas o no.
[24:41]Pero sí relaciones de entidades a nivel de los textos o de la semántica o de la de la data rica y viva que yo tengo dentro de mi contexto para poder crear estas relaciones que estoy viendo en este caso.
[24:51]Esto es lo más difícil de crear GraphRAG. La tecnología per sé es muy fácil de implementar, pero lo difícil es yo tener un experto en un dominio que me permita construir esas entidades que realmente puedan nutrir las relaciones y buscar buenas relaciones.
[25:09]Entonces este loco lo que dice es, oiga, por qué no le entregamos toda esta mierda a un LLM y que este LLM sea el maintainer de esa data y de esa ontología, de esas entidades y de esas relaciones vivas y ricas.
[25:38]Loco, el tipo simplemente es un genio, es un maldito genio. Le han tirado mucho hate porque dicen, ah, son ya lo estaba haciendo la comunidad, lo cual es la misma mierda que Uber.
[25:51]Es la misma mierda que muchas startups. Si alguien ya lo estaba haciendo, pero tú no lograste lanzarlo antes, lo que no se ve no se vende. Si no, si nadie lo estaba utilizando, es como el el el el la analogía del árbol en el bosque, solitario.
[26:05]Si alguien, si el si hay un árbol en el bosque que se cae, pero nadie lo puede escuchar, ¿realmente se cayó? ¿Realmente hizo un estruendo, realmente sonó? Literalmente había gente que ya lo estaba construyendo, sí, pero no, no nadie lo sabía.
[26:20]Entonces este tipo lo que hizo fue, oiga, entreguémosle a los LLM la capacidad y la forma de nutrir esas experiencias de entidades y que él sea el mantenedor de crear objetos, relaciones, entender cómo se van conectando todas esas experiencias ricas y vivas dentro de las memorias, porque esto va muy orientado a las memorias de los agentes.
[26:41]Y que nuestros agentes no olviden lo que estamos hablando, porque ahí viene un tercer punto que es bien delicado o que es bastante eh difícil de trabajar con OpenClaw 10 la cantidad de tokens que consume es absurdo, es bárbaro, es es una cosa que no tiene ningún sentido.
[26:55]Así que GraphRAG o la Wiki LLM llega justamente para resolver ese problema y es que podamos tener memorias efectivas dentro de nuestros agentes, pero a través de entidades.
[27:10]Entonces yo lo que hice fue, tomé el learnings, el self-improvement-agent, tomé la ontología y tomé el Wiki LLM. El Wiki LLM le ingresé o básicamente eh para que entiendas cómo lo puedes hacer.
[27:24]Yo lo que hice fue, y esto lo voy a mostrar en el siguiente vídeo que voy a estar montando, que es cómo yo estoy construyendo OpenClaw de la mejor forma.
[27:32]Cuál es la mejor práctica para construir OpenClaw? Cuál es esos esos esa forma en la que yo puedo interactuar y construir un mejor OpenClaw sin tener que destruir lo que ya había eh construido y entender cómo puedo ir incrementando valor dentro de mi OpenClaw.
[27:48]Pero básicamente lo que yo hice fue, le dije a mi OpenClaw que tomara la ontología, que tomara la Wiki LLM, que tomara el self-improvement-agent, que creara dentro del agent, dentro de este archivo de agent, un proceso claro, en el cual él iba a tomar estas tres skills y las iba a dotar de la siguiente forma.
[28:09]Iba a crear un trigger o un disparador con el heartbeat, o sea, va a crear un heartbeat donde todos los días a medianoche va a analizar las conversaciones y las memorias que están quedando almacenadas en el learning, que están quedando almacenadas en las conversaciones.
[28:22]Las va a analizar y va a utilizar la skill de ontología para crear entidades y relaciones. Va a entender yo cómo estoy interactuando o en este caso mi equipo cómo está interactuando con Orka.
[28:36]En este caso te estoy poniendo el ejemplo con Orka, pero tú puedes hacerlo con cualquier tipo de agente.
[28:39]Entonces, voy a tomar toda esta interacción y esta data, porque es que la data es poder. Garbage in, garbage out, por eso es que nuestros agentes muchas veces no funcionan, porque les entregamos data cruda.
[28:50]Esto es procesamiento de datos. Tú le estás ayudando a tu agente a que la data le llegue mucho más filtrada, que le llegue data de mucha mayor riqueza.
[29:00]Entonces, lo que lo que hice fue, le expliqué a mi agente cómo iba a utilizar el ah el la skill de el self-improvement con la ontología y cómo todos los días en la noche iba a hacer un heartbeat para analizar justamente para analizar esa interacción que estaba teniendo y que se disparara la Wiki LLM.
[29:21]Que ese es el tercer skill. Lo vas a buscar aquí dentro de OpenClaw. También está, se llama Wiki. La vas a buscar como Wiki. Dice Wiki LLM. Hay una que tiene, no me acuerdo cuáles qué es. Creo que aquí hay una que tiene muchas instalaciones, Fishy Wiki, Personal Knowledge Wiki, Wiki.js, Lark Suite Wiki, Wiki Retriever, Karpathy LLM Wiki.
[29:48]La voy a buscar y te la voy a pasar, que sé que hay una muy, muy, muy top, que es la que yo estoy utilizando, llama Wiki LLM.
[30:00]Aquí me están apareciendo en desorden. Relevance, Downloads, DeepWiki. Es esta de acá, ¿listo? Te vas a instalar esa que dice DeepWiki.
[30:13]Y dentro de DeepWiki, entonces, yo ya le dije, listo, y vas a utilizar la DeepWiki para crear archivos, porque lo que hace la DeepWiki es que crea unos archivos, crea unos eh unas relaciones internas o utiliza esta, esta, estos archivos, justamente, como te digo, esos archivos para utilizar los grafos de conocimiento. Esto te va a pedir instalar otros, otros archivos o u otras, eh, otras dependencias, en este caso un MCP.
[30:38]Y lo que tienes que, y lo que lo que lo que hace justamente este conjunto de tres herramientas o de tres skills es la última lo que hace es, oye, voy a utilizar la Wiki con la ontología para crear relaciones y entidades eh de grafos para poder entender qué es lo que este loco está hablando todos los días.
[30:56]Y cuando entiende qué es lo que estoy hablando todos los días, lo voy a llevar a la carpeta del learnings para que entienda y le explique a través de las entidades ontológicas, cuál es mi forma de interactuar con él, y mi agente pueda constantemente aprender de la interacción que tiene conmigo, en este caso con nuestro equipo, y cada día pueda hacer mucho mejor.
[31:18]De esta forma he logrado tener un agente que todos los días mejora su interacción, que todos los días, de hecho, me hace propuestas de cómo puede mejorar.
[31:27]Todos los días me dice, oye, he aprendido esto en mi interacción con los chicos. Creo que podemos estar mejorando esto. Es una cosa absurda. He estado interactuando con muchas otras skills. Es más, las skills, recuerda que son un concepto, son un archivo markdown que tú mismo puedes crear.
[31:43]En mi caso, no solamente estoy utilizando estas tres skills, sino que yo también con Orka estoy creando skills personalizadas de mi startup.
[31:52]Le digo cuáles skills tiene que utilizar, qué tiene que tomar, cómo las tiene que utilizar, cuándo las tiene que utilizar. Es contexto, es limpieza de datos lo que estamos haciendo en estos momentos y no lo tienes que hacer tú.
[32:04]Simplemente le tienes que decir a la IA con el creator skill que cree la skill y eso es todo. Así que bien, si quieres hacer que tu agente sea mucho más inteligente, que sea un agente que rompa las barreras de la inteligencia y que aprenda de lo que estás haciendo y que entienda cómo puede mejorar tu día a día.
[32:26]Y si tú sientes que tu agente se está ahogando y que se está volviendo cada día más tonto, te invito a que puedas instalar estas skills. También te invito a que puedas seguir el canal. Comenta, comparte, me gusta, porque todos los días vamos a estar subiendo más información de valor, mucho agente, mucha agencialidad. Voy a estar entregando todo mi conocimiento sobre agentes y bueno, espero que este vídeo te haya gustado.
[32:45]Nos vemos en una siguiente ocasión. Bye, bye.



