SAN FRANCISCO.- Facebook comenzó a desplegar sus capacidades de inteligencia artificial para ayudar a evitar que los terroristas usen sus servicios, según reveló la compañía.
Funcionarios de la empresa dijeron en un blog que Facebook utilizará inteligencia artificial así como revisores humanos para encontrar y remover inmediatamente "contenido terrorista", antes de que otros usuarios lo vean. Tal tecnología ya se utiliza para bloquear pornografía infantil de Facebook y de otros servicios como YouTube, pero Facebook se había mostrado renuente a aplicarla a otros usos más difíciles de definir.
En la mayoría de los casos, Facebook sólo retira material objetable si los usuarios lo reportan primero.
Facebook y otras compañías de internet enfrentan una creciente presión gubernamental para identificar y prevenir la propagación de propaganda terrorista y de mensajes de reclutamiento en sus servicios. A inicios de junio, la primera ministra británica Theresa May hizo un llamado a los gobiernos a formar acuerdos internacionales para evitar la propagación del extremismo por internet. Algunas medidas propuestas responsabilizarían jurídicamente a las empresas por el material publicado en sus sitios.
La publicación en el blog de Facebook –realizada por Monika Bickert, directora de administración de política global; y por Brian Fishman, gerente de política contraterrorista– no mencionó específicamente el llamado de May, pero admitió que "como consecuencia de los recientes ataques terroristas, la gente ha cuestionado el papel de las compañías de tecnología en el combate al terrorismo en internet".
"Queremos responder esas preguntas de frente. Estamos de acuerdo con quienes dicen que las redes sociales no deben ser un lugar en el que los terroristas tengan una voz", escribieron.
Entre las técnicas de inteligencia artificial empleadas en este esfuerzo está el cotejo de imágenes, el cual compara fotos y videos que las personas publican en Facebook con imágenes o videos "conocidos" vinculados a terrorismo. Una correspondencia generalmente significa que Facebook ya había removido el material o que éste terminó en una base de imágenes que la compañía comparte con Microsoft, Twitter y YouTube.
Facebook también desarrolla un sistema de "señales basadas en mensajes" que ya habían sido retirados por alabar o apoyar a organizaciones terroristas. Esas señales alimentarán a una máquina que posteriormente aprenderá a detectar publicaciones similares.
Bickert y Fishman dijeron que cuando Facebook recibe reportes de publicaciones "potencialmente terroristas", los revisa al instante. Además, dijeron que en los raros casos en los que el sistema descubre evidencia de daño terrorista inminente, se informa rápidamente a las autoridades.
La tecnología todavía no llega al punto en que sea capaz de entender los matices del lenguaje y el contexto, por lo que los seres humanos siguen involucrados en el proceso.
Facebook dice que emplea a más de 150 personas que trabajan "exclusivamente o principalmente enfocadas en contrarrestar el terrorismo". Entre esas personas hay expertos académicos sobre la lucha anti terrorista, ex fiscales, y antiguos miembros de fuerzas policiales, ingenieros y analistas, de acuerdo al blog de la empresa.