Herramientas de marketing para el negocio
13 de febrero 2025
5 de enero | Por Juan Merodio
En el futuro, cada vez que una persona necesite información, lo más habitual será recurrir a un chatbot. Esto no se limitará a búsquedas puntuales en internet, sino que se aplicará a cualquier tipo de información con la que se interactúe en el día a día: personal, organizativa y cultural.
En el plano personal, cuando alguien quiera recordar una idea de un libro que leyó, algo que se comentó en una reunión o el nombre de un restaurante que le recomendó un amigo, no tendrá que rebuscar entre notas dispersas ni en su “segundo cerebro digital”. Bastará con preguntarle a un chatbot conectado a todas esas fuentes, que devolverá la respuesta correcta en segundos.
En el plano organizativo, ocurrirá algo similar. Si surge una duda sobre una iniciativa reciente dentro de una empresa, no será necesario consultar una wiki interna desactualizada ni interrumpir a un compañero. El chatbot corporativo responderá de forma inmediata con información fiable y actualizada.
Y en el plano cultural, si alguien quiere saber qué opina su podcaster favorito sobre un tema concreto, no tendrá que buscar en Google, revisar episodios antiguos ni escuchar horas de audio. Simplemente le hará la pregunta a un chatbot entrenado con todo su contenido y obtendrá la respuesta al instante.
Este escenario puede parecer futurista, pero ya es posible hoy. De hecho, este caso lo demuestra: una persona construyó en un solo fin de semana un prototipo funcional de chatbot basado en su podcast favorito. Y funciona.
El podcast en cuestión es Huberman Lab, centrado en neurociencia y presentado por el neurobiólogo de Stanford Andrew Huberman. El programa combina divulgación científica rigurosa con consejos prácticos para mejorar el funcionamiento del cerebro y del cuerpo. El problema es que los episodios son muy largos: la mayoría duran varias horas.
Esto generaba una fricción clara. A menudo surgían preguntas concretas sobre temas que ya se habían tratado en episodios anteriores, pero encontrar la respuesta implicaba volver atrás y revisar audios interminables. Un proceso poco eficiente y nada escalable.
La solución fue clara: crear un chatbot entrenado con todas las transcripciones del podcast Huberman Lab utilizando GPT-3.
El resultado fue un bot capaz de responder preguntas revisando automáticamente el archivo completo de transcripciones del podcast y devolviendo respuestas razonables basadas en ese contenido. El propio creador compartió el experimento públicamente, explicando que el bot podía responder a prácticamente cualquier pregunta relacionada con los temas tratados en el podcast, utilizando las transcripciones como fuente.
El sistema demostraba su utilidad con ejemplos muy concretos. En uno de los episodios, Andrew Huberman hablaba sobre la ciencia de crear y mantener hábitos e introducía el concepto de task bracketing. Era una idea interesante, pero difícil de recordar con precisión.
En lugar de volver a escuchar el episodio completo, bastaba con preguntarle directamente al chatbot qué era el task bracketing. El bot respondía explicando que consiste en dividir el día en tres fases según las horas transcurridas desde que una persona se despierta, y asignar hábitos específicos a cada fase para aumentar la probabilidad de mantenerlos en el tiempo. Incluso añadía recomendaciones sobre anticipación positiva y recompensas para reforzar el hábito.
Cuando se profundizaba más, el bot explicaba por qué esa división del día era útil desde un punto de vista neuronal y qué tipos de hábitos funcionaban mejor en cada fase. Para un proyecto construido en un solo fin de semana, el nivel de respuesta era más que aceptable.
Eso sí, el propio creador reconocía las limitaciones. En ocasiones, el bot cometía errores sutiles o se quedaba corto en especificidad, obligando a hacer preguntas de seguimiento. Un ejemplo claro fue al preguntar por el concepto de error de predicción de recompensa. La respuesta sonaba creíble, pero no capturaba correctamente la definición clave del término, omitiendo que se trata de la diferencia entre la recompensa esperada y la recibida.
Este tipo de errores no invalidan la tecnología, pero sí dejan claro que todavía hay margen de mejora. Gran parte de los problemas tienen que ver con cómo se estructuran los datos de entrada. Las transcripciones se usan en bruto, y el lenguaje hablado no suele ser limpio ni preciso. Muchas definiciones aparecen dispersas a lo largo del episodio en lugar de concentrarse en un único fragmento claro.
Una posible mejora sería limpiar y estructurar mejor las transcripciones, de modo que cada concepto estuviera definido de forma clara en un solo bloque de texto. Otra opción sería encadenar prompts: una vez generada una respuesta, enviarla de nuevo al modelo para que revise errores factuales o lógicos y la refine antes de mostrarla al usuario.
También se podrían añadir referencias explícitas a la fuente, como el minuto exacto del episodio donde aparece la información. De este modo, aunque la respuesta no fuera perfecta, el usuario podría verificarla fácilmente. Todo esto es técnicamente viable hoy.
Además, el ritmo de avance es vertiginoso. Entre la construcción del bot y la publicación del caso, OpenAI lanzó una nueva versión de su sistema de embeddings que mejoraba notablemente los resultados y reducía los costes de forma drástica. Esto refuerza la idea de que muchas de las limitaciones actuales desaparecerán a corto plazo.
Por ahora, el creador decidió no lanzar el bot de forma totalmente pública hasta mejorar la calidad de las respuestas, aunque sí lo puso a disposición de sus suscriptores de pago.
Este experimento deja clara una idea clave: convertir un corpus de contenido en un chatbot funcional abre una nueva forma de consumir información y también nuevas oportunidades de negocio.
Desde el punto de vista del usuario, el valor es inmediato: acceso instantáneo a respuestas concretas sin fricción. Desde el punto de vista del creador, se abre una vía de monetización completamente nueva. Puede que una persona no pague por acceder a un archivo completo de episodios, artículos o vídeos, pero sí esté dispuesta a pagar por un chatbot que le permita consultar ese conocimiento de forma directa y personalizada.
En el futuro, cualquier contenido que se utilice como referencia debería poder convertirse en un chatbot. Medios, guías de compra, reseñas gastronómicas o documentación técnica tendrían mucho más valor si pudieran consultarse mediante preguntas naturales en lugar de listas interminables de artículos.
Además, esta oportunidad no se limita al contenido público. Dentro de las empresas, los chatbots pueden convertirse en auténticos bibliotecarios digitales: sistemas encargados de centralizar el conocimiento, mantener documentos actualizados y responder preguntas repetitivas. Esto ahorra tiempo, reduce errores y mejora la colaboración.
Lo que hace pocos años parecía un proyecto a 10 o 15 años vista, hoy ya es técnicamente posible.
Una de las grandes preguntas es quién capturará más valor en este nuevo ecosistema. Todo apunta a que el poder se concentrará en varias capas clave: los sistemas operativos, los navegadores, los modelos dispuestos a ofrecer respuestas más arriesgadas y los propietarios de los derechos de autor.
Los sistemas operativos y navegadores tendrán una posición privilegiada al situarse entre el usuario y la web. Cuando integren asistentes de IA capaces de ejecutar tareas complejas, muchas visitas a webs individuales dejarán de ser necesarias.
Al mismo tiempo, los grandes propietarios de contenido con derechos de autor acabarán jugando un papel central. A medida que estos modelos generen valor a partir de IP protegida, es probable que surjan nuevos acuerdos y modelos de reparto de beneficios.
El experimento del Huberman Bot es solo un ejemplo temprano, pero ilustra con claridad hacia dónde se dirige el consumo de contenido. Experimentar con este tipo de proyectos hoy no solo es divertido, sino estratégicamente inteligente. El cambio ya está en marcha.
Juan Merodio
Juan Merodio es conferenciante internacional y emprendedor en innovación, IA y negocio. Con más de 20 años creando y liderando empresas, ha impartido más de 1.000 conferencias en España, Estados Unidos, Japón y Latinoamérica. Fundador de TEKDI y autor de 16 libros. Pero si algo lo define no es su currículum, sino su capacidad para ver lo que viene… y construirlo antes que nadie.
Compartir >>