Saltar al contenido

Diseño web con Inteligencia Artificial: La nueva fábrica de sitios bonitos e inaccesibles

Diseño web con Inteligencia Artificial: La nueva fábrica de sitios bonitos e inaccesibles

Llevo meses escribiendo, investigando y hasta dando alguna charla sobre el potencial revolucionario de la inteligencia artificial en nuestro campo. He enseñado cómo puede ser un asistente incansable para auditar código, un tutor paciente para explicarnos las WCAG y un redactor creativo para generar textos alternativos. En un mundo ideal, la Inteligencia Artificial es el acelerador que por fin nos permitirá escalar la accesibilidad a cada rincón de la web.

Pero en el fondo de toda esta euforia tecnológica, como profesional de la accesibilidad con más canas de las que me gustaría admitir, una duda fría e incómoda ha empezado a crecer. Es una sensación que me recuerda a los primeros días de los overlays de accesibilidad, pero multiplicada por un millón.

¿Y si nuestro nuevo y brillante salvador no es un salvador en absoluto? ¿Y si, en nuestra prisa por automatizar la inclusión, estamos construyendo, sin saberlo, una máquina de exclusión a una escala que el mundo jamás ha visto?, (no, ahora no voy a escribir sobre terminators y demás, pero molaría, ¿verdad?)

La pregunta que debemos hacernos, con una honestidad brutal, es esta: ¿Estamos a punto de usar la Inteligencia Artificial para arreglar la accesibilidad de la web, o estamos a punto de generar una nueva Internet, exponencialmente más grande e inaccesible que la anterior?

Este no es un post optimista. Es una advertencia. Es una inmersión en los mecanismos por los cuales la IA, si se deja sin control, no solo perpetuará los problemas que tenemos, sino que creará barreras nuevas, más sutiles y mucho más difíciles de derribar.

La producción en cadena de la exclusión

La característica que define a la Inteligencia Artificial generativa es la escala. Por primera vez en la historia, una sola persona puede crear un sitio web completo, con mil páginas de blog y miles de imágenes, en una sola tarde. Herramientas como «The Grid», «Wix ADI» o los innumerables constructores de sitios «en 30 segundos» prometen precisamente esto: resultados instantáneos.

Aquí es donde empieza nuestra pesadilla.

Pensemos en cómo funciona la accesibilidad. Es un trabajo artesanal, requiere intención, semántica cuidadosa, pruebas manuales y empatía. Requiere que un desarrollador se detenga y piense: «¿Es esto un <button> o un <a>? ¿Cómo gestionaré el foco en este modal?».

Ahora, miremos cómo funciona un constructor de sitios con Inteligencia Artificial. Su único objetivo es el resultado visual, el usuario le pide: «Quiero una web moderna sobre yoga». La Inteligencia Artificial, entrenada para asociar «moderno» y «yoga» con ciertos patrones visuales, genera un sitio precioso. Pero si levantamos el capó, lo que vemos es un desastre semántico.

Es una sopa de <div>s.

Todo son <div>s con eventos onClick en lugar de botones. Las imágenes de fondo, cruciales para el contexto, no tienen alternativa textual. La navegación se implementa con JavaScript que rompe el orden del tabulador. El texto, elegido por su estética, está superpuesto sobre una imagen con un contraste tan bajo que es ilegible.

Antes, un mal desarrollador creaba una web inaccesible. Ahora, una sola Inteligencia Artificial puede generar diez millones de ellas en un mes, cada una con un propietario que no tiene ni idea del desastre de exclusión que acaba de publicar.

Estamos pasando de la «deuda de accesibilidad» artesanal a la «contaminación de accesibilidad» a escala industrial. El volumen de contenido inaccesible que se está creando en este mismo instante amenaza con ahogar cualquier progreso que hayamos logrado en la última década. (vale, igual es un poco exagerado el comentario, o no…)

El espejo sesgado: «basura entra, evangelio sale»

A menudo oímos que la Inteligencia Artificial es un «cerebro» objetivo. Esto es peligrosamente falso. La Inteligencia Artificial no es un cerebro; es un loro estadístico increíblemente complejo. No piensa, predice la siguiente palabra o el siguiente fragmento de código basándose en los patrones que ha memorizado.

¿Y qué datos ha memorizado? La Internet actual.

SI nos paramos a pensar esto un segundo. Múltiples estudios (como el análisis anual de WebAIM) nos dicen, año tras año, que más del 95% de las páginas de inicio del millón de sitios web más importantes tienen fallos detectables de las WCAG.

La Inteligencia Artificial ha sido entrenada con un conjunto de datos donde la inaccesibilidad no es la excepción; es la norma estadística.

  • Ha aprendido que es mucho más común que una imagen tenga un alt vacío o ausente que uno descriptivo.
  • Ha aprendido que los desarrolladores usan <div>s para todo, porque ha visto más divs clicables que <button>s semánticos.
  • Ha aprendido que los formularios sin etiquetas (<label>) son un patrón habitual.

Cuando le pedimos a una Inteligencia Artificial que «genere el código para una tarjeta de perfil», no consulta las WCAG. Consulta su vasto océano de datos memorizados y nos da el patrón más probable. Y estadísticamente, el patrón más probable es inaccesible.

Estamos, literalmente, entrenando a nuestros nuevos asistentes para que repitan los mismos errores que llevamos veinte años intentando erradicar. La Inteligencia Artificial actúa como un espejo sesgado: refleja la web que tenemos, con todos sus fallos, y nos la devuelve amplificada, validada como una «buena» respuesta. Esto no es «Inteligencia Artificial», es «Inaccesibilidad Sistematizada».

La ilusión de la «suficiencia»: la nueva cara de la complacencia

Este, para mí, es el peligro más insidioso. No es la inaccesibilidad evidente, sino la falsa sensación de accesibilidad.

Recordemos la plaga de los overlays de accesibilidad. Prometían una «solución de una línea de código» para hacer cualquier sitio web accesible. Todos en la comunidad sabíamos que era una mentira, pero para los propietarios de las webs, era una casilla marcada. «Ya tengo mi icono de accesibilidad, estoy cubierto». Estos overlays daban una falsa sensación de seguridad que, en realidad, impedía que se hiciera el trabajo de remediación real.

La Inteligencia Artificial es el overlay 2.0, pero con un barniz de legitimidad tecnológica.

Imaginemos a un desarrollador junior usando GitHub Copilot. Escribe <img> y Copilot sugiere src=»… alt=»». El junior, que confía en la herramienta, lo acepta. Peor aún: el desarrollador escribe <img> sin alt, y su editor (también potenciado por Inteligencia Artificial) se lo marca. El desarrollador le pide a la Inteligencia Artificial que lo «arregle», y la Inteligencia Artificial, para silenciar el error, añade alt=»imagen».

Técnicamente, el error (la ausencia del atributo) ha desaparecido, pero el problema (la falta de información) sigue ahí.

Ahora, escalemos esto a un constructor de sitios web para pequeñas empresas. El propietario usa un «Asistente de Accesibilidad Inteligencia Artificial». La herramienta escanea la web, encuentra 20 imágenes sin alt y usa Inteligencia Artificial visual para generar textos alternativos mediocres. Añade aria-labels genéricos a botones ambiguos. Ajusta el contraste de un color, pero ignora cinco más. Al final, presenta al propietario un informe triunfante: «¡Felicidades! Hemos corregido 30 problemas de accesibilidad. Tu sitio tiene una puntuación de 90%».

El propietario se siente genial, cree que su sitio es accesible. Pero la herramienta ha pasado por alto por completo que el proceso de pago es una trampa de teclado imposible de navegar, que los mensajes de error del formulario son invisibles para un lector de pantalla y que la navegación principal no se puede operar sin un ratón.

Algo peor que tener un sitio inaccesible es tener un sitio inaccesible que cree que es accesible. La Inteligencia Artificial está creando una nueva generación de complacencia, pintando una fina capa de «correcciones» superficiales sobre problemas estructurales profundos. Está quitando la luz del motor del salpicadero sin arreglar el motor.

La erosión de la habilidad y la construcción del mañana inaccesible

El último peligro es a largo plazo. Es la atrofia del conocimiento humano.

La accesibilidad web es un oficio. Se aprende practicando, fallando, leyendo la especificación y entendiendo el porqué semántico. ¿Por qué un <h1> es vital? ¿Por qué el orden del DOM importa? ¿Por qué ARIA debe usarse con moderación?

Si delegamos la escritura de nuestro código a una Inteligencia Artificial que «simplemente funciona», ¿quién aprenderá estas lecciones? ¿Qué pasará con la próxima generación de desarrolladores web?

Corremos el riesgo de crear una generación de «ensambladores» de código que confían ciegamente en las sugerencias de la Inteligencia Artificial, sin tener el conocimiento fundamental para detectar cuándo la Inteligencia Artificial está equivocada. Y cuando se enfrenten a un problema de accesibilidad complejo y real, no tendrán las herramientas conceptuales para solucionarlo. Estaremos creando una dependencia tecnológica que erosionará la habilidad misma que intentamos escalar.

Y mientras luchamos con el legado de la web de escritorio, la Inteligencia Artificial está construyendo las interfaces del mañana. Las interfaces conversacionales (como el propio ChatGPT), los mundos de Realidad Virtual y la Realidad Aumentada. Estas nuevas fronteras se están construyendo ahora mismo, a la velocidad del rayo, y los principios de accesibilidad apenas forman parte de la conversación. Estamos repitiendo, con una arrogancia asombrosa, los mismos errores que cometimos en 1995.

La Inteligencia Artificial no es un lápiz, es un amplificador

Tras este análisis desolador, ¿debemos abandonar la Inteligencia Artificial? ¿Debemos volver a la pluma y el pergamino?

No. Sería tan absurdo como culpar al martillo por un edificio mal construido.

La Inteligencia Artificial no es el problema. La negligencia humana amplificada por la IA es el problema.

La Inteligencia Artificial no es un colega inteligente. No es un lápiz. Es un amplificador. Es una herramienta sin conciencia, sin empatía y sin intención. Simplemente toma la intención que nosotros le damos y la multiplica por un millón.

  • Si nuestra intención es crear contenido rápido, barato y superficial, la Inteligencia Artificial lo amplificará y creará un océano de basura digital inaccesible.
  • Si nuestra intención es cumplir con una checklist para evitar demandas, la Inteligencia Artificial lo amplificará y creará una web de falsa complacencia, llena de «arreglos» superficiales.

Pero si nuestra intención, como profesionales, es construir una web inclusiva, semántica y humana, la Inteligencia Artificial también puede amplificar eso.

Esto nos deja con una responsabilidad inmensa, no basta con ser profesionales de la accesibilidad; debemos convertirnos en gobernadores de la IA. Debemos ser nosotros quienes estemos en las salas donde se diseñan estos modelos. Debemos ser nosotros quienes creemos los conjuntos de datos de entrenamiento «limpios» y accesibles. Debemos ser nosotros quienes construyamos linters y herramientas de auditoría que no solo busquen la ausencia de un atributo, sino la presencia de un significado.

El futuro de la accesibilidad web ya no depende solo de enseñar a los humanos. Ahora depende, de forma crítica, de nuestra capacidad para enseñar a las máquinas. Y si fallamos, si nos quedamos al margen mientras la industria tecnológica avanza a toda velocidad, no nos quedará duda de la respuesta: sí, la Inteligencia Artificial habrá generado una web mucho más inaccesible de lo que jamás podríamos haber imaginado.

Sé el primero en comentar

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *