entrar registro
IA

Una estudiante asiática del MIT le pide a una IA un retrato profesional y la convierte en blanca [ENG]

12 visitas
|
votos: 9 · 0
|
karma: 131
|

Una estudiante asiática del MIT pidió a una inteligencia artificial (IA) que le hiciera un retrato profesional, pero el programa la convirtió en blanca, lo que pone de manifiesto los sesgos inherentes a la IA. Rona Wang, de 24 años, pidió a la aplicación Playground AI una "foto de perfil profesional de LinkedIn". Junto con el texto, le dio a la IA una foto de origen: una imagen de sí misma.

comentarios (26)
comentarios cerrados
BLUESS
#1 BLUESS
 *
No lo sabíais, las IA tiene ideología,desde su creación, y adivina cual es.
5    k 107
IterCriminis
#1 ¡Esa me la sé, esa me la sé! ¡Son fachas y machistas! ¡Heteropatriarcado!
1    k 28
juanda
#1 Ideología no, pero si entrenamiento sesgado
3    k 68
BLUESS
#5 Ahí.
0    k 20
GrofTheGuard
#1 discrepo, las ias no tienen ni sesgo ni ideología. Eso lo proporcionan los datos con los que se la alimenta.

Cierto es que luego se les puede establecer filtros, por ejemplo ChatGPT no cuenta un chiste sobre mujeres o sobre minorías pero no tiene problemas en poner uno sobre hombres o sobre blancos.

Cuando no se establecen filtros pasa lo que pasó con la IA de microsoft que alimentaron a través de twitter www.xataka.com/robotica-e-ia/microsoft-retira-su-bot-de-ia-despues-de-

Pero repito, una IA "aprende" a partir de los datos que se le proporcionan
3    k 79
BLUESS
#6 Es lo que mencionas, y no soy experto, pero he ido a conferencias de quienes sí lo son. Esos famosos filtros y más apuntan a un sitio, como poco políticamente correctos y cuando no saben por dónde salir mienten directamente.Syudan en medicina, con cohetes,etc pero tienen su sesgo ideológico, no lo dudes.
0    k 20
Injustice_Marvin
#9 Lo siento no es verdad, el sesgo ideológico lo tenemos nosotros. La mal llamada IA sólo es un avanzado modelo matemático y estadístico que produce resultados en base a los datos de entrenamiento.
0    k 20
GrofTheGuard
#9 cuidado con la "ayuda". Lo que he probado yo sirve para que te den un esqueleto básico de lo que necesitas. Cosas complicadas, como dices, inventan.
Y, bueno, recuerdo una IA de IBM que pusieron a ayudar a calibrar tratamientos oncológicos y dirimió que algunos pacientes no deberían ser medicados...

#12 no lo vi ni lo pregunté pero estoy seguro de que me sé la respuesta
1    k 40
IterCriminis
#6 Me encantó la comparación de chatgpt ante las frases "Europa para los europeos" y "África para los africanos". :troll:
0    k 20
Injustice_Marvin
#15 Me remito a #11 o a #6 datos correctos o datos incorrectos o insuficientes para la tarea.
1    k 40
juanda
#16 El metro datos incorrectos se llama sesgo
1    k 40
Injustice_Marvin
#17 Lo que quiero decir simplemente es que la empresa que diseñó la IA ni la IA es racista.
0    k 20
juanda
#18 Obvio, la IA en si no es nada, pero la empresa la ha entrenado con sesgo
0    k 20
helisan
#23 helisan
 *
#19 #20 será al revés, no han puesto sesgos a la ia y ésta responde con lo que ha pillao directamente de la sociedad con la que la han alimentado.
0    k 19
juanda
#23 El sesgo en sí es juntamente inconsciente, dudo mucho que "añadan" sesgo a una IA
1    k 39
helisan
#25 es digamos el sesgo social y la ia es un espejo
0    k 19
function
#6 De lo que se come se cría.
1    k 40
lectorcritico
#1 La orientales para adornarse se ponen lentillas,se ablancan o evitan ponerse morenas, se poner el parpado europeo y se pone el pelo de colores europeos.

Los negros tambien se aclaran por lo menos las mujeres.

Los reconocedores de caras tambien reconocen mejor a blancos si esta desarrollado en en paises caucasicos y "chinos" si lo estan en paises orientales.
0    k 20
Injustice_Marvin
Jajajajaja supongo que esa IA sería fulminantemente despedida! Lo cierto es que eso ocurre por los datos de entrenamiento y por correlación de atributos no pq exista un sesgo real. En resumen la IA no estaba entrenada para dar esa respuesta y tiró de probabilidad y asociación para "interpretarla"
2    k 60
juanda
#3 Al contrario, si la IA no si representar la realidad es que fue entregada con sesgo
0    k 20
Injustice_Marvin
#4 lo del sesgo es una asunción nuestra. Un científico de datos que sólo dispone de un set de varias empresas occidentales en más que la mayoría de empleados son blancos va a producir esos datos,sobretodo si su target es otro.
Si su objetivo es construir imágenes de CV automatizadas por ejemplo tratará de conseguir datos con la suficiente variabilidad racial para que la IA lo pueda interpretar como un factor que no debe modificarse, pero sí su vestuario ambiente y gesto. No es fácil explicar un ejemplo pero espero se entienda.
0    k 20
juanda
#7 Pues eso, sesgo.!!
0    k 20
Injustice_Marvin
#4 Todos los datos que produce el ser humano expresan sesgos, en base ha ello no hay ninguna en el mundo que pueda hacerlo sin sesgos. Define un poco más , que quieres decir con esa frase? Crees que la empresa era racista?
0    k 20
Roundpixel
#3 la corrección profesional de fotografías se ha de hacer con mucho cuidado, entre otras cosas para no cambiarle el color de la piel al/la modelo, y está claro que esta IA no lo sabe hacer.
3    k 79
BLUESS
#11 IB Inteligencia Boba,que sé que para algo valee tranqui!
1    k 40
inconformistadesdeel67
Una IA nazi, mal vamos. xD
2    k 60
suscripciones por RSS
ayuda
+mediatize
estadísticas
mediatize
mediatize