Voy a defender algo que no quiero defender. Voy a argumentar, con datos, que la avalancha de libros generados por inteligencia artificial está mejorando el mercado editorial. Que los lectores salen ganando. Que el excedente de bienestar del consumidor de libros podría aumentar entre un veinticinco y un cincuenta por ciento gracias a la producción acelerada por modelos de lenguaje. Y voy a hacerlo citando un estudio de enero de 2026 que dinamita casi todo lo que el sector editorial —yo incluido— venía asumiendo sobre la amenaza de la IA.
Lo que todos creíamos saber
La narrativa dominante sobre la IA y los libros es simple, elegante y reconfortante para quienes trabajamos en el sector editorial: las máquinas inundan el mercado con basura, la calidad media se desploma, los autores humanos quedan sepultados bajo toneladas de contenido sintético, y los lectores son las víctimas de un experimento del que nadie les avisó. Es la historia que he contado en conversaciones privadas, la que circula en ferias del libro y congresos editoriales, la que alimenta editoriales de periódico e hilos de redes sociales de autores que se desgarran las vestiduras con estas cosas. Y no es enteramente falsa. Pero es peligrosamente incompleta.
Lo que dicen Reimers y Waldfogel es más perturbador que una simple historia de catástrofe. Lo que su estudio revela exige repensar las certezas del oficio.
Lo que el estudio realmente dice
Los investigadores analizaron una muestra representativa de más de 333.000 títulos publicados en Amazon Kindle entre 2020 y 2025, además de un censo completo de 479.000 libros en ocho subcategorías. La escala del fenómeno es incontestable: el número de títulos nuevos mensuales se triplicó entre finales de 2022 y finales de 2025, y en algunas categorías se multiplicó por diez. Hasta aquí, lo esperable.
La calidad media, efectivamente, bajó. Los autores que debutaron en la era de los Grandes Modelos de Lenguaje (LLM) producen, en palabras del estudio, «predominantly low-quality work». Quien busque confirmar el relato apocalíptico encontrará munición de sobra en estas páginas. Pero quien siga leyendo —y aquí es donde el estudio se vuelve incómodo para todos— se topará con hallazgos que desarman el discurso:
Primero: «the top 1,000 monthly releases per category — albeit not the top 100 — have higher quality than before». Es decir, los mil mejores libros nuevos que aparecen cada mes en cada categoría son mejores que antes de la llegada de los LLM. No los cien mejores, que permanecen iguales —la excelencia absoluta no ha cambiado—, sino esa franja intermedia entre el libro excelente y el libro mediocre. Esa zona donde se juega la verdadera batalla del mercado editorial se ha vuelto más rica, no más pobre.
Segundo: «the arrival of LLMs does not appear to have displaced activity by incumbent authors». Los autores que ya publicaban antes de la era IA no han sido desplazados. De hecho, su productividad ha aumentado. La catástrofe del autor humano arrinconado por las máquinas no se verifica en los datos. Lo que sí se verifica es que los nuevos autores que llegan al mercado gracias a la IA producen mayoritariamente trabajo de baja calidad. Pero esos autores no existían antes. No están sustituyendo a nadie. Están añadiendo ruido, sí, pero también —y esto es lo crucial— están añadiendo volumen al extremo derecho de la distribución de calidad.
Tercero, y aquí está la estocada: «LLM-enhanced book production could, in steady state, raise the surplus that consumers derive from book markets by a quarter to a half». El excedente del consumidor —la medida económica de cuánto valor obtienen los lectores del mercado de libros— podría aumentar entre un veinticinco y un cincuenta por ciento en estado estacionario. No porque los libros sean mejores en promedio, sino porque hay muchos más libros buenos en términos absolutos. Si antes aparecían mil libros al mes y cien eran buenos, ahora aparecen tres mil y doscientos son buenos. El porcentaje baja. El número absoluto sube. Y al lector le importa el número absoluto, no el porcentaje.
La incómoda aritmética de la abundancia
Esto exige que pensemos de una forma que al gremio editorial le resulta profundamente contraintuitiva. Estamos acostumbrados a razonar en términos de porcentajes de calidad, no en términos absolutos. Cuando decimos «el noventa por ciento de lo que se publica es basura», estamos haciendo una afirmación sobre proporciones que no dice nada sobre cantidades. Si el noventa por ciento de mil libros es basura, quedan cien libros buenos. Si el noventa y cinco por ciento de diez mil libros es basura, quedan quinientos libros buenos. El porcentaje empeoró. La oferta de calidad se quintuplicó.
Reimers y Waldfogel lo formalizan con un modelo de demanda logit anidado —perdón por la jerga, pero es necesaria para entender la magnitud del hallazgo—. Tomaron los libros reales publicados entre 2020 y 2022 como línea base pre-IA, los compararon con los publicados entre 2023 y 2025, y calcularon el excedente del consumidor en distintos escenarios. Con los libros realmente publicados en la era LLM, el excedente sube un veintiuno por ciento. Si se duplica la producción pre-IA con la distribución de calidad de la era LLM, sube un veinticuatro por ciento. Si se triplica, un cincuenta y tres por ciento.
Traduzco: incluso con la calidad media más baja, el enorme volumen de producción genera más valor para los lectores, porque les ofrece más opciones en la franja alta de la distribución. Es como si se hubiera multiplicado por tres el número de restaurantes en una ciudad: la calidad media de los restaurantes bajaría, pero la probabilidad de encontrar un restaurante excelente subiría significativamente. Y al comensal lo que le importa es encontrar ese restaurante, no la media del sector.
Lo que nadie quiere escuchar
¿Y qué hacemos los editores con esto? Porque si la IA está generando más valor para los lectores, ¿en qué posición queda nuestra función de intermediación? Aquí es donde necesito ser honesto conmigo mismo y con quienes lean esto.
El estudio revela algo que llevaba tiempo sospechando pero que me resistía a articular: la función curatorial del editor tradicional nunca fue tan eficaz como nos gustaba creer. Si un aumento masivo de títulos sin curación editorial produce más bienestar para el consumidor que el sistema curado anterior, quizá el filtro editorial no filtraba tan bien como pensábamos. Quizá rechazábamos manuscritos que habrían encontrado lectores. Quizá nuestro «criterio» era, en parte, un sesgo disfrazado de oficio.
Esto no significa que la edición sea inútil. Los cien mejores libros de cada categoría —la élite absoluta— no han cambiado con la llegada de la IA. Esa franja sigue siendo territorio de autores con talento genuino y, probablemente, de editoriales con criterio genuino. Pero sí significa que la función editorial del futuro no puede consistir en lo que consistía antes: seleccionar un puñado de manuscritos entre miles y rechazar el resto. Ese modelo de escasez artificial ha quedado refutado por los datos. El mercado funciona mejor con abundancia filtrada por el lector que con escasez impuesta por el editor.
Es duro de admitir. Y la verdad incómoda que Reimers y Waldfogel ponen sobre la mesa es esta: el mercado del libro puede generar más valor para los lectores con menos intermediación editorial, no con más.
Lo que sí muere (y lo que nace)
Hay matices que el estudio obliga a considerar. Los autores que debutan en la era LLM producen, mayoritariamente, trabajo de escaso valor. El estudio lo documenta sin ambigüedad: los coeficientes de efecto fijo por cohorte de debut caen drásticamente para los autores que entran al mercado después de 2022 cuando se miden sobre los quinientos libros más valorados de cada mes. El talento no se democratiza por decreto tecnológico. Lo que la IA democratiza es la publicación, no la calidad.
Pero los autores que ya publicaban antes de la IA —los que tienen oficio, los que saben qué quieren contar, por qué y cómo— están produciendo más y mejor. Su productividad ha subido. Su presencia en la franja alta de calidad se ha reforzado. La IA no los está arrinconando; los está potenciando. Un novelista con veinte años de oficio que usa un LLM para acelerar la investigación, explorar variaciones de estructura o pulir diálogos no se convierte en un fraude. Se convierte en un artesano con herramientas más potentes.
Y aquí aparece lo que creo que es el verdadero hallazgo del estudio, el que debería reconfigurar la conversación del sector: la IA no aplana la distribución de calidad. La estira. Produce más basura en la parte baja y más valor en la parte alta. Amplifica las diferencias en lugar de reducirlas. Lo que se pierde es el territorio intermedio cómodo donde muchos editores y autores operaban sin destacar pero sin fracasar tampoco. La IA no perdona la mediocridad competente. Premia la excelencia y castiga la falta de ambición.
El editor que viene
Si el excedente del consumidor sube entre un veinticinco y un cincuenta por ciento y los autores con oficio producen más y mejor, ¿qué papel le queda al editor? No el que teníamos, desde luego. Pero quizá uno más honesto.
El editor como curador de la abundancia, no como portero de la escasez. El editor que no decide qué merece existir —porque esa pregunta la responde ahora el mercado con una velocidad y una escala que ningún comité editorial puede igualar— sino qué merece atención dentro de lo que existe. Es una diferencia sutil pero radical: pasa de ser quien controla la oferta a ser quien orienta la demanda.
He escrito en artículos anteriores sobre la edición computacional reactiva, sobre el colapso del modelo offset especulativo, sobre cómo plataformas como Clube de Autores o Inkitt invertían la lógica de la producción. Lo que el estudio de Reimers y Waldfogel añade es la evidencia empírica de que esa inversión no solo es viable: es preferible. El mercado con más libros y menos curación previa genera más bienestar que el mercado con menos libros y más control editorial. Los datos son los datos.
La honestidad necesaria
En esta sección de Zenda hemos reflexionado sobre aspectos que afectan al mercado y la industria editorial desde suposiciones erróneas: que los premios premian talento, que el prestigio garantiza supervivencia, que la autopublicación es vanity press, que la promoción es ajena al autor. Con este artículo me toca cuestionar quizá el mito más querido de todos: que la función del editor como guardián de la calidad es insustituible.
No lo es. O al menos no en la forma en que la hemos ejercido hasta ahora. Lo que sí es insustituible —y el estudio lo confirma indirectamente— es la capacidad de distinguir señal de ruido para un lector que no tiene tiempo para leer trescientos mil títulos al mes. Pero esa capacidad ya no se ejerce rechazando manuscritos en un despacho. Se ejerce construyendo sistemas de recomendación fiables, comunidades de lectura informadas, marcas editoriales que funcionen como certificados de confianza en un océano de abundancia.
Reimers y Waldfogel concluyen su estudio con una frase que merece citarse: «Despite the controversy surrounding LLMs, their effect on book consumers — like other cost-reducing technological changes in the cultural industries — appears to be positive and large». A pesar de la controversia, el efecto sobre los lectores parece positivo y grande.
No sé si me gusta esa conclusión. Pero creo que el sector editorial haría bien en dejar de luchar contra ella y empezar a preguntarse, con honestidad, qué valor real ofrece en un mundo donde la abundancia ha dejado de ser un problema.


Zenda es un territorio de libros y amigos, al que te puedes sumar transitando por la web y con tus comentarios aquí o en el foro. Para participar en esta sección de comentarios es preciso estar registrado. Normas: