top of page
Diseño sin título (1).png

Blog Odiseia

Sigue nuestro blog y mantente al día de todos los avances y noticias en el mundo de la inteligencia artificial y su impacto social y ético.

TODOS (PASAMOS POR SITUACIONES EN QUE) SOMOS VULNERABLES.

Foto del escritor: Ángel Gómez de ÁgedraÁngel Gómez de Ágedra

He conocido a algunos astronautas. Su imagen es lo más opuesto que alguien pueda imaginar a un ser vulnerable. Su nivel de preparación física e intelectual, su aplomo y capacidad para razonar bajo presión no es una invención de las películas. Sin embargo, cuando en la película 2001, una odisea del espacio, el astronauta David Bowman ordena a Hal9000 que abra la compuerta del Discovery1, el actor Keir Dullea, que da vida al Dr. Bowman, es la viva imagen de la vulnerabilidad.


Todos somos vulnerables en alguna circunstancia. Es más, todos tenemos alguna circunstancia que nos hace vulnerables; un “punto débil”. El ámbito digital tiene, en ese sentido, mucho parecido al espacio exterior. La mayoría de nosotros solo ha visto el ciberespacio a través de la ventanilla que suponen las pantallas de nuestros ordenadores y teléfonos, pero lo que se esconde detrás sigue siendo un misterio.


Los humanos tendemos a resolver los misterios de dos maneras, mediante la razón o mediante el recurso a los mitos. A falta de elementos de juicio, la mitología es la salida natural. La inteligencia artificial (IA) se convierte así, para muchos, en un ente sobrenatural, omnisciente y objetivo cuya palabra debe ser creída porque, al fin y al cabo, tiene acceso a toda la información y no tiene preferencias a priori.


Lo cierto es que las continuas campañas de alabanza (marketing) de la IA que lanzan sus mismos desarrolladores, las grandes compañías del sector, contribuyen notablemente a que pensemos que Hal9000 o Terminator han adquirido -o están a punto de adquirir- conciencia de sí mismos. Sin embargo, el riesgo de que las máquinas se humanicen es mucho menor que el de que los humanos nos mecanicemos. El truco es mantener las bolas en el aire hasta que realmente haya bolas. 


Nos gusta ver la realidad en blanco y negro, en bueno y malo, en positivo y negativo. Pero la realidad tiene muchos más matices, muchos tonos de gris.


Por eso, los riesgos que presenta la IA para los humanos son tan variados, al menos, como las oportunidades que ofrece. Eso sí, como en el caso del resto de las tecnologías digitales, el mayor de los riesgos es no utilizarla.


Simplificando, los riesgos derivados de nuestra interacción con la IA vienen dados por dos factores: nosotros y la IA. Es decir, factores que aportamos los humanos con nuestros sesgos y limitaciones, y factores que introducen las máquinas con los sesgos y las limitaciones de su diseño (en seguridad de vuelo decimos que todos los accidentes son producto de errores humanos; bien del piloto, bien del mecánico, bien del ingeniero que diseñó el sistema). Vamos, que la IA sí tiene prejuicios; unos inducidos por nosotros voluntariamente y otros por fallos en el diseño.


La IA pone un enorme espejo a nuestra disposición reflejando cómo somos los mismos humanos. Estudia los datos que le damos y extrae consecuencias sin tener mayor información sobre el contexto que la que le hayamos dado (o permitido adquirir). Nos hace ver, con sus defectos, una caricatura de los nuestros.


Con la máquina no vale decir “ni que decir tiene”, porque aquello que no se le dice, no existe para ella. Es lo que se llama “conocimiento tácito”. Tiene siempre en “la mente” todo lo que sabe, pero nada que no haya aprendido.


Las probabilidades de que una máquina te deje sin trabajo son mucho menores que las que hay de que alguien que sepa utilizar una máquina te arrebate el puesto. La amenaza no es que las máquinas adquieran conciencia de sí mismas, sino que nosotros no adquiramos conciencia de que estamos trabajando con máquinas y de las posibilidades que eso ofrece.


En el primer caso, de que no seamos conscientes de que trabajamos con máquinas y que creamos por un momento que razonan y sienten como nosotros. Ninguna de las dos afirmaciones es cierta.

En el segundo, de que seamos incapaces de extraer el partido que puede ofrecernos el aumento de capacidades que surge de la interacción con las máquinas.


En el proyecto cAIre, que lleva a cabo OdiseIA en colaboración con Google, estamos estudiando cómo la IA afecta a los individuos y a los grupos humanos en situación de vulnerabilidad. Definir estas vulnerabilidades -y, obviamente, a esos grupos- ha sido el primer paso.


No pretendemos hablar de justicia social, sino de cómo la IA puede alterarla o mejorarla. Cuanto mayor sea nuestra dependencia de las máquinas, mayor será el impacto de su actuación en nuestras vidas. Salvo que, el más grande de esos impactos sería el no tener acceso a su contribución.

0 comentarios

Comments


bottom of page