30 de marzo de 2026

El bit sostiene la era digital, pero el qubit explota reglas cuánticas para resolver ciertos problemas mucho más rápido. La pregunta ya no es si “sustituirá” a la informática clásica, sino cuándo —y para qué— tendrá ventaja real.

Bitcoin nació de un documento de apenas nueve páginas publicado en octubre de 2008 en una lista de correo de criptografía. El autor firmaba como Satoshi Nakamoto. No aportó foto, ni currículo, ni referencias. Solo un PDF y, semanas después, el código fuente de un sistema monetario que funcionaba sin bancos, sin Estados y sin una autoridad central.

Durante las últimas dos décadas, una palabra de seis letras se ha infiltrado en universidades, laboratorios, startups, gigantes tecnológicos y hasta en oficinas de estadística de gobiernos: Python. Lo utilizan físicos que buscan nuevas partículas, bancos que detectan fraudes, medios que analizan desinformación y estudiantes que escriben sus primeras líneas de código.

Desde poemas al estilo de García Lorca hasta retratos fotorrealistas de personas que no existen o canciones que imitan a artistas famosos: la inteligencia artificial generativa ha pasado en pocos años de los laboratorios a los celulares de millones de personas. ¿Cómo “aprenden” estas máquinas?

En menos de tres décadas, manejar una computadora, navegar por internet o identificar un correo fraudulento ha pasado de ser una habilidad deseable a convertirse en una condición casi indispensable para estudiar, trabajar, relacionarse con la administración pública e incluso ejercer derechos básicos.