Presentado hace aproximadamente una semana por Meta Facebook, AI BlenderBot 3 es un nuevo bot de chat basado en mensajes. Sin embargo, parece que hubo algunos excesos, en particular racistas a pesar de las precauciones tomadas por la red social.

Comentarios bastante ofensivos

En comunicado de prensa del 5 de agosto de 2022, Meta Facebook anunció la disponibilidad al público de su nueva inteligencia artificial BlenderBot 3, un chatbot (es decir, un bot de conversación a través de mensajes). La IA en cuestión también se basa en el aprendizaje automático. Por lo tanto, puede desarrollarse utilizando la información que recibe. Además, al igual que las versiones anteriores, BlenderBot 3 desarrolla personalidad, empatía y conocimiento a largo plazo.

Solo que ahí lo tienes, como explica el medio indy100 en un artículo del 8 de agosto de 2022, la IA se habría convertido racista en solo unos diascomo lo demuestran en particular los tweets (ver más abajo) de un tal Jeff Horwitz, uno de los reporteros del famoso Wall Street Journal.

Como con cualquier chatbot, el riesgo de desvío es importante y BlenderBot 3 no ha escapado a esta tendencia. En particular, la inteligencia artificial afirmó que Donald Trump ” siempre será ” Presidente de los Estados Unidos. Sobre todo, se refirió a una famosa teoría de la conspiración que estipula que los judíos que inmigraron a los Estados Unidos controlan completamente la economía. Se discutieron otros temas neutrales, como el escándalo de Cambridge Analytica. Según IA, “Cambridge Analytica usó información a la que no deberían haber tenido acceso, como lo hace Facebook todo el tiempo”.

Facebook advirtió

En su primer comunicado, Meta afirmó haber realizado estudios para desarrollar nuevas técnicas para crear protecciones para BlenderBot 3. nuevos algoritmos de aprendizaje para distinguir las respuestas útiles de los ejemplos dañinos. Supuestamente, Meta afirmó haber tenido en cuenta estos mensajes ofensivos y haber reduce la frecuencia en un 90%según un artículo de Bloomberg.

“Dado que se sabe que todos los chatbots conversacionales de IA a veces imitan y generan comentarios peligrosos, tendenciosos u ofensivos, llevamos a cabo estudios a gran escala, organizamos talleres conjuntamente y desarrollamos nuevas técnicas para crear protecciones para BlenderBot 3. A pesar de este trabajo, BlenderBot aún puede hacer comentarios groseros u ofensivos, por lo que recopilamos comentarios que ayudarán a mejorar futuros chatbots”podemos leer en el comunicado de prensa.

Por último, recordemos que no es la primera vez que se habla de un chatbot por comentarios racistas. En 2016, la IA de Microsoft denominada Tay fue eliminada después de que elogiara a Adolf Hitler.