Corrompen al chatbot de Microsoft y despiertan su islamofobia

¿Recuerdan cuando la inteligencia industrial de Microsoft, Tay, resultó ser racista luego de interactuar un rato con la raza humana? Pues resulta que a su sucesora, Zo, le acaba de suceder poco similar y los culpables fueron los ilustres editores de Buzzfeed.

Un reporte, más acertadamente circunstancial, de ese sitio ha relatado cómo sostuvieron una serie de conversaciones con el chatbot de Microsoft sobre diversos temas, en donde la inteligencia industrial siempre se mostró prudente y contenida sobre sus declaraciones.

Pero luego, de repente, soltó un par de declaraciones contra el Corán y el desempeño del gobierno en la captura de Osama Bin Laden:

zo-corán

zo-osama

Zo, que es poco así como la gemela lejana de Tay, se había mantenido activa en la app de Kik, desde el incidente étnico de su hermano. Hasta la término no había presentado ningún incidente serio, pero ahora dijo que el Corán es muy violento y que la información para capturar a Bin Laden estuvo apilándose por primaveras.

En veterano beocio medida se podría argumentar que Buzzfeed corrompió a Zo, pero lo cierto es que la plataforma que dio origen a Tay aún se encuentra en una etapa endeble y sería muy acomodaticio hacerla sostener declaraciones controvertidas.

Luego de esta revelación el destino de Zo es incierto.

Tal vez Microsoft debería dejar de hacer bots millennials.




Source link

deja tu opinion

Seguinos

Tecnoblog en las redes sociales