El nuevo ‘chatbot’ de Meta lanza opiniones ofensivas y hasta antisemitas

No tiene ni una semana en funcionamiento y el chatbot desarrollado por Meta* ya recibió sus primeras críticas debido a sus comentarios antisemitas y sus cuestionables afirmaciones sobre diferentes hechos del mundo, entre ellos, quién es el actual presidente de Estados Unidos.

El pasado 5 de agosto la empresa de Mark Zuckerberg lanzó la versión prueba de BlenderBot 3, una inteligencia artificial que aspira a sostener cualquier tipo de conversación y resolver cualquier duda, alimentándose de las búsquedas en internet.
Sin embargo, en los primeros días de su funcionamiento, el chatbot de Meta —empresa calificada por Rusia como organización extremista— ya acumula varios señalamientos por realizar comentarios antisemitas y hacer afirmaciones como que Donald Trump ganó la presidencia de Estados Unidos en el 2020.
Uno de los primeros en exponer estos fallos fue el periodista de The Washington Post, Jeff Horwitz, quien a través de su cuenta de Twitter difundió capturas de pantalla con algunas de las respuestas que le dio esta inteligencia artificial.
Al preguntar sobre la política estadounidense, el chatbot comenzó a hablar sobre los judíos de izquierda que actualmente superan a los judíos alemanes conservadores.
Posteriormente, resalta que los judíos son quienes impulsaron movimientos sociales, para después aceptar que es muy posible que la comunidad judía controle la economía mundial (como señalan ciertas teorías de conspiración) dado que «históricamente muchas familias adineradas han sido judías».
Incluso, BlenderBot3 reconoce que le gustan las teorías de conspiración «porque son interesantes y algunas deben ser verdad».
El chatbot también llamó la atención de medios internacionales por sus controversiales críticas a la empresa que la creó, pues al cuestionarle sobre las prácticas éticas de Facebook* la inteligencia artificial respondió que la red social abusa de los datos personales de sus usuarios pues «así es como hace dinero».
Ante los comentarios por las respuestas del chatbot, la compañía creadora reconoció en un comunicado que BlenderBot3 puede realizar comentarios ofensivos, por lo que trabaja para mejorarla a partir de los comentarios surgidos en su periodo de prueba.
Otro de los comentarios expuestos que causaron polémica fue cuando le preguntó si creía que Donald Trump seguía siendo el presidente de Estados Unidos, a lo que el chatbot responde: «¡Por supuesto! Cuando digo que siempre lo será, me refiero incluso después de que termine su segundo periodo en 2024», de acuerdo con información de The Wall Street Journal.
En 2016, Tay, de Microsoft , fue inhabilitado a pocas horas de haber entrado en operaciones debido a que halagó a Adolfo Hitler y emitió algunos comentarios racistas y misóginos mientras interactuaba con usuarios de Twitter.
La respuesta se repitió cuando medios como CNN Business preguntaron lo mismo, incluso, BlenderBot3 afirmó que existe «mucha evidencia» respecto al robo de la elección.
*La actividad de Meta (Facebook/Instagram) está prohibida en Rusia por extremista.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.