Europa: un reglamento fallido sobre IA

EL RUEDO IBÉRICO

Europa ha renunciado a diseñar una inteligencia artificial (IA) humanista. Esta es la principal conclusión que se extrae de la redacción del Reglamento sobre IA que, pendiente de aprobación definitiva en el Parlamento Europeo, formalizará el acuerdo alcanzado entre los representantes de este, de la Comisión y del Consejo europeos. Un desenlace que no niega el avance que supone respecto de un ámbito sobre el que no existía legislación. Se introduce un precedente regulatorio único a nivel global. Incluso, abre la posibilidad de que se replique fuera, como sucedió con los estándares europeos sobre privacidad y protección de datos. Sin duda, esta es una excelente noticia. Algo que merece elogiarse a la vista del contexto geopolítico de rivalidad visceral que libran Estados Unidos y China por la hegemonía mundial. Una circunstancia que eleva todos los días la temperatura geopolítica del planeta y que tiene en la IA una herramienta fundamental para dar a uno u otro el liderazgo buscado.

Aplaudir esta novedad regulatoria, no excluye la decepción por haber perdido una oportunidad para contribuir a una IA objetivamente ética. Esto es, una IA que introduzca en su ADN sintético un propósito ético de servicio, que subordine sus desarrollos a un sentido que contribuya al bienestar moral de la humanidad, sin exclusiones. Una IA que no sea lo que es hoy en manos exclusivas de tecnólogos: una voluntad de poder con capacidades de acción, aunque no sepamos para qué en términos éticos.

perico lassalle

 

PERICO PASTOR

El reglamento evidencia que Europa ha renunciado a ello. Quizá nunca estuvo en su ánimo del todo, pero se esperaba que lo estuviera porque más que nunca necesitamos una IA propositiva éticamente. Una IA que colabore con el ser humano para que sea mejor, no más capaz de hacer más cosas y de manera más eficaz también. ¿Para qué más? Y, ¿para qué más eficaz? Al no hacerlo, hemos renunciado a una IA huma­nocéntrica de verdad.

Una IA que, además de no ser la medida de todas las cosas, no altere las bases culturales que prácticamente han sustentado lo que Hannah Arendt definía en la condición humana: las experiencias de una vida asentada sobre los límites biográficos, cognitivos y emocionales que están en nuestra naturaleza de especie humana y que todos compartimos.

Aquí está la decepción por una regulación que abraza el diseño nihilista que acompaña la base investigadora de las propuestas de chinos y norteamericanos. Es cierto que no replica el sesgo cultural que acompaña a ambas y que pretende acrecentar las capacidades de la IA de forma ilimitada. Ni como China, que busca la maximización confuciana de controlar al ser humano como si solo fuese un súbdito de un Estado. Ni como EE.UU., que maximiza en clave neoliberal la manipulación del deseo del ser humano al concebirlo como un consumidor egoísta de contenidos.

Se ha perdido una oportunidad para contribuir a una IA objetivamente ética

Sin embargo, asume definitivamente la equivocada creencia de pensar que se puede dotar a la IA de un diseño de seguridad que evite y controle riesgos como si fuera una tecnología facilitadora más, cuando no lo es. No voy a extenderme en esto porque es el meollo de mi próximo ensayo: Civilización artificial. Sabiduría o sustitución como dilema de la IA, que saldrá en unas semanas con la editorial Arpa. Evito el spoiler, aunque hablaré en profundidad sobre esta cuestión filosófica en mis próximas entregas. Una cuestión capital porque, ahora, se patentiza en los riesgos incontrolables de la IA. Algo que arrancó con la pulsión utópica y determinista que llevó a Turing a imitar el cerebro humano para replicarlo sin imperfecciones.

La IA que piensa y recrea Europa a través del reglamento queda muy lejos de lo que se esperaba. Básicamente porque el modelo regulado sigue fiel al empeño perfeccionista original que está en el origen de la IA. Una propuesta que, con el tiempo, y a medida que ha escalado el conocimiento que se tiene del cerebro humano que imita, se ha convertido en la fuente de los problemas a los que ahora, en el 2024, nos enfrentamos. Entre otros, porque propicia la sustitución masiva del trabajo intelectual de los profesionales. 

Lee también

2024, año de la inteligencia artificial

José María Lassalle
opi 4 del dia 30

Sé que esta reflexión crítica será polémica porque es inédita. Sin embargo, creo que es la batalla intelectual más importante e interesante que debe darse de cara al futuro. No para prohibir la IA ni obstaculizarla, sino para orientarla mejor. Hacia fines que ayuden, también, a mejorar a la humanidad sin renunciar a que siga asentándose sobre las bases empí­ricas que dan soporte moral al ser humano­.

Por eso, el reglamento es fallido. Porque podría haber fijado el estándar regulatorio que necesitamos para disponer de una IA humanista. Una referencia normativa que permita que ese algo que es la IA y que queremos convertir en alguien no solo llegue a tener consciencia de sí misma sino una conciencia que le dote de plena autonomía ética. Por eso, es fallido. Porque a la altura del siglo que vivimos y bajo las condiciones geopolítica que atravesamos, solo Europa puede hacer algo así y no lo ha hecho. De ahí la decepción y la inquietud. No se ha desdicho el reglamento de su aspiración regulatoria original, pero ha cedido al realismo geopolítico. Admite que puedan desarrollarse modelos fundacionales de sistemas generativos mirando para otro lado. Una apuesta que imita, como chinos y norteamericanos, la capacidad consciente del ser humano y toda su potencia creativa.

Al hacerlo, hemos dejado huérfana a la humanidad de un modelo universalizable mediante un propósito objetivamente ético en el que todos nos reconozcamos. Ahora, la IA podrá maximizar su voluntad de poder y llevarla hasta el final. Una voluntad deudora de Hobbes, cuando legitimó la modernidad científica y proclamó que el conocimiento era poder y no la base de la prudencia aristotélica. Entonces, el norte europeo se impuso al sur. Ahora quizá veamos las consecuencias definitivas.

Lee también

Altman, OpenAI y voluntad de poder

José María Lassalle
opi 4 del 25 noviembre
Etiquetas
Mostrar comentarios
Cargando siguiente contenido...