En la mitología griega, el centauro no era simplemente un caballo con torso humano pegado encima. Era algo más perturbador: una criatura donde lo bestial y lo racional coexistían sin anularse mutuamente. Quirón, el más sabio de ellos, enseñó medicina y música a los héroes griegos. No era humano a pesar de su naturaleza equina, era extraordinario precisamente por esa fusión.
En 1997, Garry Kasparov perdió contra Deep Blue y el mundo declaró la muerte del ajedrez humano. Pero Kasparov no se retiró a llorar. Al año siguiente, inventó el "Ajedrez Centauro": humanos y máquinas jugando juntos contra otros equipos de humanos y máquinas. Y aquí viene lo interesante, en un torneo abierto en 2005 demostró algo que nadie esperaba: dos amateurs con tres computadoras mediocres derrotaron a grandes maestros equipados con los mejores engines del mundo.
La fórmula que Kasparov extrajo de esto se ha convertido en una especie de mantra en círculos de IA: "Un humano débil + máquina + mejor proceso era superior a una computadora sola y, más notable aún, superior a un humano fuerte + máquina + proceso inferior."
A ver, vamos a leer eso de nuevo: El diferenciador no fue la potencia del hardware ni el rating del humano. Fue el proceso cómo colaboraban.
Veinte años después, mientras Silicon Valley nos vende el sueño de agentes autónomos que van a "liberarnos" del trabajo, esa lección sigue sin aprenderse.
El Problema con "AI-First"
Abre LinkedIn cualquier día y verás el mismo evangelio repetido con fervor religioso: "AI-first development", "let AI lead", "automate everything". La narrativa dominante es simple y seductora: deja que la máquina haga el trabajo, tú solo supervisa (y sabemos que muchas veces nadie supervisa).
Esta visión tiene un problema: asume que la inteligencia es unidimensional. Que existe una escala lineal donde eventualmente la IA supera al humano en todo, y entonces el humano sobra.
Error! La inteligencia no funciona así.
Investigadores de Stanford desarrollaron recientemente el "Human Agency Scale" — una escala de cinco niveles que evalúa cuánta agencia humana requiere cada tarea. Lo interesante: cuando encuestaron a 1,500 trabajadores sobre 104 ocupaciones, el nivel más deseado fue H3 — *"Equal Partnership"*, colaboración equitativa entre humano y máquina. No automatización total. No el humano como mero supervisor. Colaboración real.
Y aquí está el dato incómodo para los evangelistas del AI-first: el 41% de las inversiones de Y Combinator en startups de IA están concentradas en lo que los investigadores llaman "Low Priority Zone" y "Automation Red Light Zone" — tareas donde los trabajadores *no quieren* automatización o donde la tecnología simplemente no está lista.
Estamos invirtiendo billones en resolver problemas que la gente no quiere que se resuelvan de esa manera.
Human-Augmented AI Development: Un Framework Diferente
Después de más de veinte años escribiendo código y los últimos dos navegando la explosión de herramientas de IA, he llegado a una conclusión que no es sexy ni vendible en conferencias tech: la IA funciona mejor cuando aumenta la capacidad humana en lugar de intentar reemplazarla.
No es una posición anti-tecnología — uso Claude, Gemini y otras herramientas diariamente. Es una posición anti-rendición.
El framework que uso con mi equipo de ingenieros se resume en una directiva: "Augment, Don't Dominate". La IA actúa como un pair programmer de nivel Staff Engineer. Se adapta al contexto existente, a los patrones del codebase, al workflow del equipo. Su rol es aumentar la intención del desarrollador humano, no imponer su propio estilo ni actuar autónomamente.
Esto significa:
Analizar primero, preguntar después. La IA examina el código existente, identifica patrones, y *pregunta* antes de asumir. No llega arrasando con "mejores prácticas" genéricas que ignoran el contexto.
Cambios como pasos lógicos. Cada modificación se presenta como un paso discreto con explicación. El humano mantiene la narrativa del trabajo, entiende qué está pasando y por qué.
Proponer, no asumir. Cuando hay oportunidad de mejora, la IA la sugiere. Pero implementa el patrón existente a menos que el humano decida lo contrario.
Guardrails explícitos. Cambios de arquitectura, schema de base de datos, acciones destructivas — requieren aprobación explícita. La IA no tiene autoridad para decisiones de alto impacto.
¿Suena obvio? Debería. Pero observa cómo la mayoría de tutoriales y workflows de "AI coding" funcionan: el humano describe vagamente lo que quiere, la IA genera páginas de código, el humano copia y pega sin entender, y cuando algo se rompe nadie sabe por qué.
Eso no es aumentar. Es abdicación.
En fin, quizás sea hora de redefinir "AI-first"
El estudio de Stanford reveló que H3 (Equal Partnership) es lo que los trabajadores realmente quieren. No automatización total. No supervisión pasiva. Colaboración donde el humano mantiene agencia real.
No es la IA primero y el humano después. Es el humano definiendo el camino, con la IA amplificando cada paso.
Kasparov no ganó dejando que la máquina liderara. Ganó definiendo cómo colaborar con ella.
Alex Barrios
0
Aún no hay comentarios. ¡Sé el primero en comentar!