entrar registro
fermin
#31 Sobre lo de la IA, las GPUs online son muy caras, pero dependiendo de la complejidad, solo se usan para entrenar. Si la red no es muy compleja se puede "inferir" en CPU con buenos resultados... pero claro, depende mucho del tamaño de la red neuronal, etc. A día de hoy, para lenguaje natural lo mejor es usar las redes llamadas "Transformers", pero entrenar esas redes es jodidamente caro porque suelen se muy grandes. Aquí ya usamos GPT-3 para generar las etiquetas. OpenAI cada día saca más redes entrenadas que puedes usar por un módico precio a través de una API. Habrá que esperar a que hagan algo que nos pueda servir...
5    k 115
suscripciones por RSS
ayuda
+mediatize
estadísticas
mediatize
mediatize