Ya es sabido que en la actualidad que, cuando buscamos en Google cualquier cosa, los resultados son cada vez peores. Para colmo de males en casi todos los buscadores tenemos el lindo cuadro al principio del “Resumen de la IA”, el cual nos presenta la supuesta respuesta a nuestra pregunta resumida para nuestra digestión rápida.

Porque de eso se trata ¿no? Digestión rápida, contenido rápido, respuestas rápidas, no tengo tiempo que perder, ni un segundo, necesito la siguiente pantalla, conseguir la respuesta, y seguir haciendo swipe en Instagram o YouTube, ¿cierto?

Toda la economía del Internet es la atención y nosotros somos el producto (esto no es novedad). ¿Cómo se van a permitir las mega corporaciones entregarle visitas a un blog o cualquier sitio que se dio el trabajo de hacer la investigación?. Bajo el argumento del “Internet público” ellos pueden absorber todo, entregarnos el resumen, y ya, porque Dios nos proteja de tener que pensar por nosotros mismos. 

Entonces vamos al caso de uso diario, utilizo la respuesta rápida, el resumen de IA, y no funciona. “Déjame reescribirlo”, “déjame preguntar de nuevo”, necesito la respuesta en el primer intento.

Para que ir a la documentación oficial de Rails y leer como escribir correctamente una llamada a la base de datos, si la IA absorbió 15 maneras de hacer la llamada de hace 5 años y me dice que es la manera correcta.

El Internet sigue ahí, sólo que ahora hay una capa adicional, una burbuja agregada, y somos nosotros los que decidimos estar felizmente dentro de ella, o simplemente explorarla y ojala, usarla de forma responsable. 


El síntoma que todos vemos


Libros enteros en Amazon escritos "por autores" que no existen. Publicidad engañosa de productos insertados en espacios reales que resultan ser una completa estafa. Contenido histórico alterado con imágenes generadas.  Artículos de "10 mejores herramientas para X" donde las 10 son iguales en todos los sitios.

El "AI Slop" está en todas partes, y creciendo diariamente de forma masiva, publicado sin verificar, optimizado solo para el "raking" de los misteriosos algoritmos del Internet pero no para ser útil.

Y lo peor: cada vez es más difícil distinguirlo del contenido real.


La fábrica invisible


Pero aquí está lo que no vemos: en algún lugar, probablemente en un edificio compartido en Manila, Bangalore o Karachi, hay decenas de personas sentadas frente a computadoras generando este contenido. No son bots. Son humanos.

Les pagan centavos por publicación, que para ellos esos centavos importan, más no la calidad de lo que están subiendo en línea.

Antes, estas personas podían generar 5 posts al día pero ahora, con ChatGPT o Claude, pueden generar cincuenta, en distintas plataformas, sin verificación porque a la final la calidad no importa, es la velocidad y la cantidad. El modelo de negocio no cambió. Solo se aceleró exponencialmente.

¿Son ellos los culpables? No. Son una pieza más en una cadena de explotación mucho más grande.

Las capas de la culpa


Si rascamos la superficie, encontramos que la IA no es el problema raíz. Es solo el acelerador de un sistema que ya estaba roto.

Las plataformas: Google recompensa el volumen y las palabras clave, no la profundidad. YouTube premia los minutos vistos, no el valor aportado. Amazon no filtra la basura porque la basura también paga comisiones. El algoritmo no distingue entre conocimiento real y palabrería optimizada.

El modelo extractivo: Los modelos de IA se entrenaron con el trabajo de millones de personas. Artículos, conversaciones, código, arte. Sin permiso. Sin compensación. Reddit vendió las conversaciones de sus usuarios por millones de dólares. Los usuarios que crearon ese valor: cero. Ahora la IA compite contra los mismos humanos que la entrenaron.

La economía de la atención: Las empresas no necesitan conocimiento, necesitan "contenido". Necesitan publicar todos los días para mantenerse "relevantes" ante el algoritmo. El mercado freelance está precarizado. Quien produce más barato gana el contrato. La carrera hacia el fondo ya existía. La IA solo ayudo a acelerar el paso.

Nosotros: Los que sabemos mejor. El desarrollador senior que copia código de ChatGPT sin leerlo realmente. El consultor que usa plantillas generadas porque "son suficientemente buenas". Yo, con veinte años de experiencia, usando IA porque "no tengo tiempo" para sentarme a escribir desde cero cada semana.

La tentación de la productividad sobre la profundidad


El asunto no es IA versus No-IA. La diferencia es: ¿hay un humano que realmente entiende detrás de esto?

He visto código generado por IA que compila perfectamente y tiene una vulnerabilidad de seguridad que cualquier desarrollador con experiencia detectaría en dos segundos. He visto artículos técnicos generados que citan best practices de hace cinco años como si fueran actuales. He visto "guías" que mezclan frameworks incompatibles como si fuera lo más normal del mundo.

Todo funciona a primera vista. Todo sube rápidamente en los buscadores, y los misteriosos algoritmos deciden que eso es lo que queremos ver. Todo parece correcto.

Hasta que no lo es.

Y el problema es que el criterio no se puede automatizar. No todavía. La IA puede imitar patrones, pero no puede juzgar contexto. No puede distinguir entre "esto compila" y "esto es seguro". No puede separar información desactualizada de conocimiento vigente.

Ese filtro es humano. Siempre.

Lo que estamos perdiendo de verdad


No es solo "contenido de calidad" en abstracto. Es algo mucho más fundamental.

Es la voz humana. La experiencia vivida y compartida. Los blogs personales que ya nadie lee porque no aparecen en la primera página de Google. Las conversaciones genuinas en foros, reemplazadas por FAQs autogeneradas. La "serendipia" de encontrar algo que no buscabas pero necesitabas (el español y sus hermosas palabras).

Estamos pasando de la web como espacio de exploración a la web como máquina de respuestas prefabricadas, que tomamos por verdaderas siempre, irrefutables, porque si la IA lo dice es porque es cierto y no se equivoca. Aunque lo más normal es que en una serie de errores, puede que eventualmente te de la respuesta correcta.

Vamos, que no es culpa de la IA, es culpa tuya por no preguntar bien. 

Y en ese proceso, perdemos la textura. Los matices. Las contradicciones. Todo lo que hace que el conocimiento sea conocimiento y no solo información procesable.

En fin...


Ya no podemos volver atrás. No podemos pedirle a alguien en un país en desarrollo que rechace un trabajo que alimenta a su familia. No podemos esperar que las plataformas se autorregulen cuando su modelo de negocio depende del volumen.

Pero sí podemos hacer algunas cosas (desde mi humilde opinión):

  • Ser conscientes de cuándo usamos IA como muleta versus como herramienta. Hay una diferencia entre "genera esto por mí" y "ayúdame a estructurar esta idea que ya tengo".
  • Cuestionar, cuestionar todo, investigar aparte, estar seguro antes de publicar. Si no puedes explicar por qué algo es correcto, no lo publiques. Si no entiendes el código que la IA generó, no lo uses.
  • Valorar y buscar activamente contenido con voz humana real. Blogs personales. Foros. Conversaciones. Documentación escrita por gente que realmente usa las herramientas.
  • Recordar que la velocidad no es lo mismo que el valor. Publicar menos pero mejor no es fracasar. Es resistir.

Aceptar nuestras propias contradicciones. Porque seamos honestos: este artículo empezó como un boceto. Creció en base a las discusiones que se escuchan en vivo, discusiones generadas con la misma IA. Conversé con Claude la estructura, la filosofía detrás, lo que quería transmitir. La IA me ayudó a articular ideas que ya tenía para darles forma y luego refinarlas en esto que lees. 

Leí cada línea, escribí mi voz. Agregué ejemplos de mi experiencia. Agregué y ajuste metáforas. La herramienta fue efectiva en ayudarme a crear. Es una herramienta, no me remplaza a mi ni a mi voz, solo me ayuda a darle estructura y forma a la idea.

Esa diferencia importa. Por ahora.

Porque el internet que estamos perdiendo no se perdió por la tecnología. Se está perdiendo porque dejamos de cuestionar. Dejamos de revisar. Dejamos de poner nuestra voz en lo que publicamos.

Y eso, ninguna IA puede hacerlo por nosotros.