entrar registro
omoloc
"Al teclear en el traductor de Google: «Ondo josten du», se podrá leer: «Ella cose bien». Esta frase en euskera atribuye la tarea de coser a la mujer pese a que este idioma utiliza pronombres neutros, sin distinción de género. ¿Por qué ocurre esto?"


Adivinad qué dirían si la traducción fuera "Él cose bien"
2    k 59
function
#5 function
 *
#4 ¿Y los camareros machistas, que le sirven la cerveza a él y la azurcola zero a ella, por defecto? No lo hacen por estadística, no, ¡lo hacen por machíiiiiiismoooooohhhhh!
1    k 39
lectorcritico
#4 #6 Las IA sacan una probabilidad o la probabilidad de las diferentes respuesta y escogen la mas acertada. Si tiene "cose" no sabe la 3 persona es H o V y se elige lo mas probable.
Igual que lo mas probable es que la bebida alcoholica la elija el chico. Y un camarero tendra mas experiencia de lo que eligen la gente.

He respondido antes de leeros #5 y #7 :-P
1    k 37
function
#9 Eso mismo, mi temor es que un algoritmo y unos datos perfectamente aceptables dé unos resultados que porque a algunos politicocorrectistas no les agraden serían tachados de -istas.

Por poner un ejemplo. Imaginemos una I. A. que examina el aspecto y comportamiento de los clientes de un supermercado para asignar una probabilidad de que sea un ladrón. Naturalmente, tiene datos previos de sucesos en los que se han detectado ladrones, con ciertas características. Pues bien, en según qué supermercados el público que siempre la lía pertenece a unos grupos concretos, no dudes que el algoritmo, por muy certero que fuera, sería catalogado como racista o con malquerencia hacia los "pobres" o los toxicómanos, sin que el propio algoritmo sepa qué es un toxicómano, ni un pobre, ni una persona de cierta etnia, pero lo que sí sabe es reconocer patrones de movimiento, de vestimenta, de colores, de voces, incluso, y con ellos calcular sus probabilidades.

¿No se tachó a la poliicía de racista por pedir la documentación a personas "de color", en no sé qué ciudad, cuando su labor en ese momento era la de detectar inmigrantes irregulares? Pues a este nivel de gilipollismo hemos llegado.
0    k 20
lectorcritico
#10 dot_csv contaba que las IA pueden ayudar a revelar nuestros sesgos no se si en una entrevista con birras.
www.youtube.com/watch?v=BWNflY1vAwY

Tambien pienso que cierto colectivos tiene problemas y los crean en mas medidas y hay que analizar porque ocurren para solucionarlos.
Muchas veces los primeros perjudicados son los del colectivo. Los jihadistas sobre todo matan y someten a otros musulmanes. Los gitanos suelen agredir a otros gitanos. Los que se portan bien, no deberian verse perjudicados y tener más ventajas.
En un programa de emergencias. Un gitano, Dr Vaca era medico y en el programa era muy didactico. Fue desterrado por divorciarse de su mujer, con motivo porque el matrimonio fue acordado por otros y no encajaron. Deberia poder tomarse medidas para castigar esa discriminación por algo legal como divorciarse. Ademas, un buen modelo, que es medico ayuda a la sociedad y tiene estudios superiores, no esta contacto con otros, sobre todo niños, para ser su ejemplo.
1    k 36
squanchy
#4 pues probablemente ocurra por un simple tema de estadística. La IA habrá aprendido leyendo anteriores traducciones donde quien cosía era la mujer
1    k 40
suscripciones por RSS
ayuda
+mediatize
estadísticas
mediatize
mediatize