Cómo he creado mi cerebro digital con IA
12 de febrero 2026
24 de abril | Por Juan Merodio
¿Te imaginas que en 1995 una universidad hubiera prohibido usar internet para hacer trabajos? Suena ridículo, ¿verdad?
Pues eso exactamente está pasando ahora con la inteligencia artificial en la mayoría de universidades. Y no solo en las aulas. Hay cantantes, diseñadores, escritores, gente creativa con un talento brutal, que sienten que usar IA es hacer trampas. Que es traicionar lo que son.
Déjame ser directo: prohibir la IA es la peor estrategia educativa de esta década. Y rechazarla por miedo a perder tu identidad como creativo es confundir la herramienta con el talento. Hoy voy a desmontar las dos cosas.
Hace unas semanas estuve hablando con una madre. Su hijo tiene 20 años, estudia marketing en la universidad, y le contó algo que a ella le pareció absurdo: un profesor le había suspendido un trabajo porque «sonaba a ChatGPT». El chaval no había usado ChatGPT. Simplemente escribía bien.
Fíjate qué situación más surrealista. Hemos llegado a un punto en el que escribir bien te penaliza porque alguien asume que no puedes hacerlo tú solo.
Y del otro lado, hace poco un músico me dijo algo que se me quedó grabado: «Juan, yo podría usar IA para componer melodías, para probar arreglos, para escribir letras… pero si lo hago, ¿sigo siendo yo? ¿Sigue siendo mi música?»
Esa pregunta me dio vueltas durante días. Porque la respuesta es más fácil de lo que parece, pero necesitas cambiar el ángulo desde el que miras.
El elefante que nadie quiere ver en las aulas
Mira, te lo digo claro: prohibir la inteligencia artificial en la universidad es como prohibir las calculadoras en una clase de ingeniería. Puedes hacerlo, pero estás formando profesionales del pasado, no del futuro.
Y ojo, entiendo a los profesores. De verdad que los entiendo. Llevan años diseñando sus asignaturas, sus exámenes, sus trabajos. Y de repente llega una tecnología que permite a un estudiante generar en 10 minutos lo que antes costaba 3 días. Normal que se sientan amenazados.
Pero comprensible no significa correcto.
Más del 60% de las universidades del mundo no tienen una política clara sobre el uso de IA generativa, según datos de UNESCO. No la prohíben ni la regulan: simplemente miran hacia otro lado. El problema no es la prohibición explícita, es la falta de criterio.
Piensa en esto como cuando empezaron a llegar los GPS a los coches. Hubo un momento en que los taxistas más veteranos decían que usar GPS era de novatos, que un buen taxista se sabía las calles de memoria. ¿Y sabes qué pasó? Que los que se adaptaron al GPS pudieron centrarse en lo que de verdad importaba: dar un buen servicio, encontrar rutas más rápidas según el tráfico en tiempo real, ser más eficientes. No dejaron de ser buenos taxistas. Fueron mejores taxistas.
Con la IA en la educación pasa exactamente lo mismo.
El problema de fondo es que muchas universidades están evaluando memoria, no capacidad. Están evaluando si puedes repetir algo que leíste, no si puedes pensar con ello. Y claro, cuando llega una herramienta que repite información mejor que cualquier estudiante, el sistema se tambalea.
Pero a ver, ¿quién tiene la culpa? ¿La herramienta o el sistema de evaluación que llevaba décadas midiendo lo que no debía medir?
Cuando aprendes a pilotar un avión, no te evalúan porque te sepas de memoria todos los botones de la cabina. Te evalúan porque sabes qué hacer cuando hay turbulencias, cuando falla un motor, cuando la torre de control te cambia la ruta a última hora. Lo que importa es el criterio, la capacidad de decisión bajo presión. Los botones los puedes consultar en el manual.
Habla con cualquier director de recursos humanos de una empresa mediana o grande. Pregúntale qué valora en un candidato. Te va a decir capacidad de análisis, resolución de problemas, pensamiento crítico, adaptabilidad. En ningún momento te va a decir «que sepa redactar un trabajo de 20 páginas sin consultar nada».
Eso ya no existe.
Mira lo que está pasando en algunas universidades de Países Bajos y Finlandia. Han creado asignaturas enteras donde el objetivo es resolver un caso de negocio real usando IA, pero evaluando el proceso, no el resultado final. El alumno tiene que documentar qué le pidió a la IA, qué descartó, qué modificó y por qué. Eso sí es evaluar aprendizaje. Eso sí prepara para el mundo real.
Aquí viene la parte que me enciende de verdad. Porque cuando una universidad prohíbe la IA, ¿sabes qué mensaje le está dando al estudiante? «No confiamos en ti para que la uses bien.»
Punto.
Es como si un padre le quitara la bicicleta a un hijo porque se ha caído una vez. En lugar de enseñarle a frenar, a mirar antes de cruzar, a ponerse el casco… se la quita. ¿Y qué consigue? Que el niño nunca aprenda a montar en bici. O peor: que aprenda solo, sin supervisión, y se dé un golpe de verdad.
La ética de la IA no se enseña prohibiendo. Se enseña usando. Se enseña con casos prácticos: «Mira, esto que te ha generado la IA tiene un sesgo, ¿lo ves? Aquí hay un dato inventado, ¿cómo lo verificas? Esta fuente no existe, ¿cómo te proteges?»
Un estudio de Stanford mostró que los estudiantes que recibieron formación explícita en uso ético de IA generativa desarrollaron un pensamiento crítico significativamente más alto que los que simplemente fueron expuestos a la prohibición.
Te voy a hacer una pregunta directa: si tú fueras a contratar a alguien mañana para tu negocio, ¿preferirías al que aprendió a usar IA con criterio durante la carrera, o al que nunca la tocó porque se la prohibieron y ahora tiene que aprender desde cero en su primer día de trabajo?
La respuesta es obvia. Y si es obvia para ti como empresario, debería ser obvia para la universidad que forma a esos profesionales.
Vale, vamos a la otra cara de la moneda. Porque si lo de las universidades es un tema de sistema, lo de los artistas es un tema de identidad. Y eso es mucho más profundo.
Cuando un cantante, un pintor, un escritor se plantea usar IA, no está tomando una decisión técnica. Está tocando quién es. Y lo entiendo perfectamente. Si llevas 15 años componiendo canciones con tu guitarra en el salón de tu casa, a las 2 de la mañana, con un café frío al lado, sintiendo cada acorde… claro que la idea de que una IA te genere una melodía en 30 segundos te parece una aberración.
Pero déjame que te cuente algo.
¿Sabías que cuando Bob Dylan se pasó de la guitarra acústica a la eléctrica en el Newport Folk Festival de 1965, parte del público le abucheó? Le llamaron «traidor». Literalmente. Un tipo que estaba redefiniendo la música de su generación, y lo abuchearon porque usó un instrumento diferente.
¿Y sabes qué pasó después? Que la guitarra eléctrica se convirtió en uno de los sonidos más icónicos de la historia de la música. Y Dylan siguió siendo Dylan.
La IA es eso. Un instrumento. Ni más ni menos.
El problema es que la estamos viendo como un sustituto, cuando en realidad es un amplificador. No viene a reemplazar tu creatividad. Viene a darte opciones que antes no tenías.
Vamos a lo práctico, que es lo que interesa. Un cantautor que conozco divide su proceso en tres fases: inspiración, composición y producción. Para él, la composición es sagrada. Las letras y las melodías principales salen de su cabeza, punto. Pero la producción, los arreglos, las mezclas… ahí sí usa herramientas de IA para probar combinaciones de sonidos que antes le habrían costado semanas.
Es como un arquitecto que diseña el edificio con su visión, pero usa software para calcular si la estructura aguanta. Nadie dice que el arquitecto es menos creativo porque un programa le calcula las cargas. Al revés: el programa le libera para centrarse en lo que realmente importa.
Después de hablar con muchos creativos sobre este tema, lo he destilado en tres ideas que funcionan.
La lógica del director de cine. Un director no opera la cámara, no edita el sonido, no diseña los decorados. Pero la película es suya. ¿Por qué? Porque la visión es suya. Tú como artista puedes usar IA como un miembro más de tu equipo de producción, siempre que la visión siga siendo tuya. Si tú decides qué se queda y qué se tira, el resultado es tuyo.
La lógica del jardinero. Un jardinero no hace crecer las flores. Las plantas hacen eso solas. El jardinero decide qué plantar, dónde, cómo regar, cuándo podar. La IA puede generar opciones, ideas, variaciones. Tú decides qué merece estar en tu jardín y qué es hierba mala.
La lógica de la transparencia. Los artistas que integran IA con paz mental son los que lo dicen abiertamente. Cuando eres transparente, el conflicto ético desaparece. Porque la ética no es sobre qué herramientas usas, sino sobre si eres honesto respecto a cómo las usas.
Y mira, cuando rascas debajo de la superficie del miedo de un artista a usar IA, la mayoría de las veces lo que encuentras no es un conflicto ético real. Lo que encuentras es miedo a que su talento no sea suficiente. Miedo a que si una máquina puede hacer algo parecido a lo que hace él, entonces quizá lo que hace no es tan especial.
Eso es profundamente humano. Pero también es profundamente erróneo.
Porque la IA puede generar mil melodías, pero no puede sentir por qué esa progresión de acordes te recuerda al verano que pasaste con tu abuelo en el pueblo. No puede decidir que esta canción necesita un silencio de dos compases en el minuto tres porque eso es lo que le da emoción. Eso eres tú. Y eso la IA no lo reemplaza.
Fíjate qué curioso. Estamos hablando de aulas y de estudios de grabación. Parece que son temas distintos. Pero la raíz es exactamente la misma.
En los dos casos, el miedo no es a la IA. El miedo es a perder el control.
El profesor tiene miedo a perder el control sobre cómo evalúa. El artista tiene miedo a perder el control sobre su identidad creativa. Y los dos están reaccionando de la misma forma: cerrando la puerta.
Pero cerrar la puerta nunca ha funcionado con ninguna tecnología en la historia de la humanidad. No funcionó con la imprenta, no funcionó con la electricidad, no funcionó con internet. Y no va a funcionar con la IA.
Lo que sí funciona es abrir la puerta con criterio. Decidir tú cómo quieres usar esta herramienta en lugar de que la herramienta te use a ti.
La ética de la IA no es un problema de tecnología. Es un problema de honestidad.
Así de sencillo. Así de profundo.
Un estudiante que usa IA para entender mejor un concepto, que reformula lo que la IA le da, que añade su análisis y su criterio… ese estudiante está siendo honesto. Está aprendiendo. Un estudiante que copia y pega sin leer lo que la IA ha generado está siendo deshonesto. Pero también era deshonesto el que copiaba trabajos de Rincón del Vago en 2005. El problema no es la herramienta. El problema es la intención.
Un cantante que usa IA para explorar sonidos nuevos, que filtra todo por su sensibilidad, que firma su canción sabiendo que la visión es suya… ese artista está siendo honesto consigo mismo. Un cantante que genera una canción entera con IA y la firma como suya sin haber puesto nada de sí mismo tiene un problema. Pero también tenían un problema los cantantes que firmaban canciones escritas por otros antes de que existiera la IA.
La herramienta cambia. La ética no.
Antes de usar IA para cualquier cosa, hazte tres preguntas: ¿qué estoy delegando exactamente? ¿Puedo explicar cómo he llegado al resultado? ¿Estoy aprendiendo algo en el proceso? Si puedes responder con tranquilidad a las tres, vas bien. Si no, el problema no es la IA. Es cómo la estás usando.
Es como cuando aprendes a escalar. Antes de cada ruta, evalúas la dificultad, tu nivel y el equipo que llevas. Si las tres cosas encajan, subes. Si alguna no cuadra, ajustas. No dejas de escalar; ajustas el planteamiento.
La puerta está abierta
Las universidades que entiendan esto formarán a los profesionales que van a liderar los próximos 20 años. Las que no, formarán a gente con un título muy bonito y una brecha de competencias que les costará años cerrar.
Los artistas que integren la IA como un instrumento más — con criterio, con honestidad, con su sello personal — van a crear cosas que hoy ni nos imaginamos. Los que se cierren en banda seguirán haciendo buena música, pero se perderán la oportunidad de hacer algo extraordinario.
La IA no te quita nada que sea realmente tuyo. Lo que sí te quita es la excusa de seguir haciendo las cosas como hace 10 años solo porque así te sientes seguro.
Tú decides si entras. Pero te digo una cosa: los que están entrando ahora, con criterio y con honestidad, dentro de cinco años van a mirar atrás y van a agradecer haber dado el paso.
No porque fuera fácil. Sino porque fue necesario.
Juan Merodio
Juan Merodio es conferenciante internacional y emprendedor en innovación, IA y negocio. Con más de 20 años creando y liderando empresas, ha impartido más de 1.000 conferencias en España, Estados Unidos, Japón y Latinoamérica. Fundador de TEKDI y autor de 16 libros. Pero si algo lo define no es su currículum, sino su capacidad para ver lo que viene… y construirlo antes que nadie.
Compartir >>