TecnoXplora » Internet

Internet

Facebook tiene un problema con el acoso y cree que podrá resolverlo con bots, ¿sabes cómo?

La red social está desplegando un ejército de estos usuarios robotizados para comprender la magnitud y, sobre todo, la forma de combatir cualquier expresión de odio en sus páginas.

REEMPLAZO FACEBOOK REEMPLAZO FACEBOOK

En los últimos tiempos Facebook ha sido el centro de las críticas, y los boicots publicitarios, a cuenta de su presunta tolerancia a la hora de dar cabida a discursos del odio en muchas de sus páginas y perfiles. Y es evidente que los de Mark Zuckerberg son conscientes de que tienen un problema que deben resolver cuanto antes así que, ¿existe mejor forma de combatirlo que comprender cómo se desarrolla?

Con eso en mente, desde la red social han puesto en marcha un complejo programa protagonizado por bots que busca internarse en la inmensidad de Facebook para detectar, analizar y comprender de qué manera es posible combatir y contrarrestar ese acoso que se produce alrededor de ciertos discursos, que encuentran en la libertad absoluta de la red social su mejor caldo de cultivo para propagarse.

Ciberacoso | Shutterstock

Ni qué decir tiene que el principal aliado de la compañía para combatir este problema con el programa de bots es a través de la inteligencia artificial, del aprendizaje profundo que llaman, y que intenta definir exactamente cuáles son las circunstancias en las que esos discursos del odio tienden a alimentarse: tanto en la parte de los perfiles más proclives a estas actitudes, como a las técnicas para neutralizarlos.

Bots con el acoso en Facebook

De momento, este plan de usar bots con los que combatir el acoso se está llevando a cabo a través de una simulación web (WES), donde un ejercito de estos programas inteligentes imitan los malos comportamientos que realizan a diario los perfiles de millones de personas con la intención de recrear las mismas circunstancias. A partir de esa interacción, los ingenieros de la compañía van descubriendo nuevas medidas que tomar y que implementar más tarde en las páginas de Facebook.

Según Mark Harman, investigador de Facebook, el proyecto WES tiene tres aspectos fundamentales en los que se apoya: el primero es entrenar correctamente a los bots para simular los comportamientos humanos y, para ello, utilizan el aprendizaje automático; en segundo lugar la simulación web permite automatizar las interacciones de todos los bots a gran escala, pasando de unos pocos a millones; y tercero y último, esos programas entrenados que ya han aprendido en las fases anteriores, son lanzados a interactuar con comentarios y contenidos reales de la red social (pero en servidores separados) para ver cómo se comportan y, sobre todo, si son capaces de saltarse lo que en la red social llaman "Estándares de la Comunidad".

Es en esa tercera fase donde WES cobra todo el sentido porque permite a los ingenieros responsables de este proyecto encontrar patrones en los resultados de estas pruebas, para luego usar esos datos para probar fórmulas con las que dificultar que los usuarios violen los "Estándares de la Comunidad". Con este plan, los de Mark Zuckerberg quieren que la supervisión humana desaparezca en todo lo que tiene que ver con la supervisión de la plataforma, como el acoso, la actividad criminal, las fake news, etc., por lo que a falta de mejores iniciativas, la inteligencia artificial aparece en el horizonte como la única solución viable para controlar el tráfico de todo lo que se publica a diario en la red social.

Más sobre este tema:

Vídeos

Así es la primera exposición de criptoarte NFT en España