Inteligencia artificial y decrecimiento

 

Sornosa, Josep

Timor, Pascual

 

El cambio climático y la inteligencia artificial (IA) son dos desafíos globales muy distintos, pero cada vez más vinculados entre sí debido a las implicaciones recíprocas inherentes a cada uno de ellos.

 

Según el informe Predictions 2025 Report [1] de la agencia de investigación de mercados Ipsos, el 74% de la población en España cree que en 2025 se producirán más fenómenos meteorológicos extremos y que la inteligencia artificial seguirá generando recelo, ya que el 62 % de los encuestados considera que ocasionará la pérdida de más puestos de trabajo.

 

Nuestra relación con la inteligencia artificial debe partir de una premisa incuestionable: asumir que es inevitable y, por tanto, que es imprescindible regularla.

 

Con relación al control del cambio climático, urge implementar un nuevo modelo social y decrecer para alcanzar el Acuerdo de París y lograr que el planeta siga siendo habitable.

 

Según se agrava la emergencia climática y disminuyen los presupuestos para neutralizar la producción de dióxido de carbono que reclama el Acuerdo de París, los científicos que estudian el cambio climático y los ecologistas apuntan de forma cada vez más clara al crecimiento económico como un motivo de preocupación. El crecimiento impulsa la demanda de energía y hace que sea significativamente más difícil —y muy probablemente inviable— que los países lleven a cabo la transición a las energías limpias a un paso suficientemente rápido como para evitar niveles de calentamiento global potencialmente catastróficos. En los últimos años, el Grupo Intergubernamental de Expertos sobre el Cambio Climático (IPCC, por sus siglas en inglés) ha argumentado que la única forma posible de alcanzar los objetivos del Acuerdo de París es disminuir conscientemente los flujos de materia de la economía global. Reducir los flujos disminuye la demanda de energía, lo que hace más fácil la transición a las energías limpias[2].

 

Decrecimiento: una teoría de la abundancia radical

Jason Hickel. Universidad de Londres, RU

 

La Ley de Inteligencia Artificial de la Unión Europea, conocida en inglés como EU AI Act[3], es la primera normativa que aborda los riesgos de los sistemas de inteligencia artificial y posiciona a Europa en el panorama mundial. Esta ley regula diversos aspectos de la IA mediante la definición de distintos sistemas de riesgo. Estos son los niveles que establece:

 

Riesgo inaceptable

 

Todos los sistemas de IA considerados una clara amenaza para la seguridad, los medios de subsistencia y los derechos de las personas están prohibidos. La Ley de IA prohíbe ocho prácticas, a saber:

 

- manipulación y engaño perjudiciales basados en la IA

- explotación perjudicial de vulnerabilidades basada en la IA

- puntuación social

- evaluación o predicción del riesgo de infracción penal individual

- rastreo no selectivo de Internet o de material de vídeovigilancia para crear o ampliar bases de datos de reconocimiento facial

- reconocimiento de emociones en lugares de trabajo e instituciones educativas

- categorización biométrica para deducir determinadas características protegidas

- identificación biométrica remota en tiempo real con fines policiales en espacios de acceso público

 

Alto riesgo

 

Los casos de uso de la IA que pueden plantear riesgos graves para la salud, la seguridad o los derechos fundamentales se clasifican como de alto riesgo. Estos casos de uso de alto riesgo incluyen:

 

- Componentes de seguridad de la IA en infraestructuras críticas (por ejemplo, el transporte), cuyo fallo podría poner en peligro la vida y la salud de los ciudadanos

- Soluciones de IA utilizadas en instituciones educativas, que pueden determinar el acceso a la educación y el curso de la vida profesional de una persona (por ejemplo, puntuación de los exámenes)

- Componentes de seguridad de los productos basados en IA (por ejemplo, aplicación de IA en cirugía asistida por robot)

- Herramientas de IA para el empleo, la gestión de los trabajadores y el acceso al trabajo por cuenta propia (por ejemplo, software de clasificación de CV para la contratación)

- Determinados casos de uso de la IA utilizados para dar acceso a servicios públicos y privados esenciales (por ejemplo, calificación crediticia que niega a los ciudadanos la oportunidad de obtener un préstamo)

- Sistemas de IA utilizados para la identificación biométrica remota, el reconocimiento de emociones y la categorización biométrica (por ejemplo, un sistema de IA para identificar retroactivamente a un ladrón de tiendas)

- Casos de uso de la IA en la aplicación de la ley que pueden interferir con los derechos fundamentales de las personas (por ejemplo, evaluación de la fiabilidad de las pruebas)

- Casos de uso de la IA en la gestión de la migración, el asilo y el control fronterizo (por ejemplo, examen automatizado de las solicitudes de visado)

- Soluciones de IA utilizadas en la administración de justicia y los procesos democráticos (por ejemplo, soluciones de IA para preparar resoluciones judiciales)

 

Los sistemas de IA de alto riesgo están sujetos a obligaciones estrictas antes de que puedan introducirse en el mercado:

 

- sistemas adecuados de evaluación y mitigación de riesgos

- alta calidad de los conjuntos de datos que alimentan el sistema para minimizar los riesgos de resultados discriminatorios

- registro de la actividad para garantizar la trazabilidad de los resultados

- documentación detallada que proporcione toda la información necesaria sobre el sistema y su finalidad para que las autoridades evalúen su conformidad

- información clara y adecuada al implementador

- medidas adecuadas de supervisión humana

- alto nivel de robustez, ciberseguridad y precisión

 

Riesgo de transparencia

 

Esto se refiere a los riesgos asociados con la necesidad de transparencia en torno al uso de la IA. La Ley de Inteligencia Artificial introduce obligaciones específicas de divulgación para garantizar que los seres humanos estén informados cuando sea necesario para preservar la confianza. Por ejemplo, cuando se utilizan sistemas de IA como los chatbots, los humanos deben ser conscientes de que están interactuando con una máquina para que puedan tomar una decisión informada.

 

Además, los proveedores de IA generativa deben garantizar que el contenido generado por la IA sea identificable. Además, determinados contenidos generados por IA deben etiquetarse de manera clara y visible, a saber, las falsificaciones profundas y el texto publicado con el fin de informar al público sobre asuntos de interés público.

 

Riesgo mínimo o nulo

 

La Ley de IA no introduce normas para la IA que se consideren de riesgo mínimo o nulo. La gran mayoría de los sistemas de IA utilizados actualmente en la UE entran en esta categoría. Esto incluye aplicaciones como videojuegos habilitados para IA o filtros de spam[4].

 

La Ley de IA de la UE establece criterios de uso de la inteligencia artificial para que, cuando los usuarios interactúen con ella, esta sea transparente y explicable, y ofrezca información clara sobre su funcionamiento y decisiones.

 

La Oficina Europea de la IA desempeña un papel clave en la aplicación de la Ley de IA al apoyar a los organismos de gobernanza de los Estados miembros en sus tareas. Hace cumplir las normas para los modelos de IA de uso general. Esto se sustenta en las competencias conferidas a la Comisión por la Ley de IA, incluida la capacidad de llevar a cabo evaluaciones de modelos de IA de uso general, solicitar información y medidas a los proveedores de modelos y aplicar sanciones[5].

 

En España, la Agencia Española de Supervisión de la Inteligencia Artificial (AESIA), ubicada en A Coruña, será la encargada de sancionar las infracciones graves (prohibiciones o incumplimiento en alto riesgo) con multas de hasta el 6-7 % del volumen de negocio global.

 

La Ley de IA de la UE entrará en vigor gradualmente tras su adopción definitiva. El primer paso se dio el 2 de febrero de 2025.

 

La ley busca equilibrar la innovación con la protección de derechos, evitando usos nocivos de la IA y fomentando la confianza en la tecnología. Sin embargo, sería deseable que se regulasen también los aspectos relacionados con el clima, como el uso masivo de energía y materiales especiales en las granjas de datos.

 

La relación entre la inteligencia artificial y el decrecimiento es un tema complejo que combina aspectos tecnológicos, socioeconómicos y ambientales.

El decrecimiento es una corriente crítica del modelo económico actual que aboga por reducir la producción material y el consumo para priorizar la sostenibilidad ecológica, la equidad social, el bienestar humano y la supervivencia del planeta.

 

La IA, por su parte, es una tecnología muy disruptiva con el potencial necesario para transformar industrias y sociedades y está ligada a la lógica capitalista de productividad, automatización y expansión de mercados, que llevan implícitos riesgos ambientales y sociales.

 

Los sistemas de inteligencia artificial generativa (IAG), especialmente los modelos de aprendizaje profundo, requieren grandes cantidades de energía y recursos materiales. Esto entra en conflicto con los principios del decrecimiento, que buscan reducir el uso de recursos no renovables.

 

La IA está centralizada en países y grandes corporaciones ricas y, dado que la información es poder, esto refuerza sus estructuras de poder y amplía las brechas globales. El decrecimiento, por su parte, propone autonomía y descentralización.

 

Es cierto que los sistemas IA con código abierto y bajo coste (con su enorme capacidad para gestionar datos) podrían usarse para mejorar la eficiencia energética, el uso del agua o de recursos materiales en sectores clave o apoyar comunidades en la gestión autónoma de recursos. Pero ¿qué precio climático hay que pagar por estas prestaciones?

 

La IA centralizada en grandes corporaciones debe regularse. De lo contrario, solo contribuye a reforzar las estructuras de poder y su determinismo ideológico. Esto conlleva un gran impacto en los criterios de justica social al tiempo que premia la eficiencia y las ganancias, mientras que el decrecimiento propone autonomía, descentralización y participación ciudadana.

 

La IA será compatible con el decrecimiento cuando sea capaz de funcionar con bajo consumo energético y cuando las grandes granjas reciclen el hardware y se supediten a una regulación estricta del impacto medioambiental que generan para reducir la huella ecológica colectiva. Es necesario democratizar su acceso y evitar la concentración corporativa, así como subordinar la tecnología a las necesidades sociales frente a las del mercado.

 

La IA no es incompatible con el decrecimiento, pero su uso debe estar guiado por principios de justicia, sostenibilidad y reducción del consumo. Para ello, es esencial cuestionar quién controla la tecnología, con qué fines se desarrolla y cómo se integra en un proyecto de sociedad justa y sostenible. Sin un cambio sistémico, la IA podría agudizar las crisis ecológicas y sociales en lugar de mitigarlas.

 

El tiempo se agota y, mientras se priorizan cuestiones económicas, la emergencia climática es una carrera que estamos perdiendo.



[2] Hickel, Jason (2019) Degrowth: a theory of radical abundance, Real-world economics review, issue no. 87, 19 March, pp. 54-68, http://www.paecon.net/PAEReview/issue87/Hickel87.pdf. Última consulta: 02/2025.

[3] EU AI Act. https://artificialintelligenceact.eu/the-act/. Última consulta: 02/2025.

[5] Oficina Europea de la IA. https://digital-strategy.ec.europa.eu/es/policies/ai-office. Última consulta 4/2025

Comentarios

Entradas populares de este blog

Arroz verde con espinacas… si el clima lo permite