Facebook prueba inteligencia artificial para detectar contenido inapropiado en livestreams

Home / Facebook prueba inteligencia artificial para detectar contenido inapropiado en livestreams

Facebook ha estado desarrollando una nueva iniciativa para controlar las transmisiones en vivo, y no se trata precisamente de algo que dependa de los humanos. La empresa se encuentra modelando una inteligencia artificial que vigilará las emisiones realizadas en Facebook Live, la cual tendrá la potestad para decidir si un livestream es o no inadecuado según las normas comunitarias de la red social, según informa hoy Mashable.

La noticia fue anunciada por Joaquín Candela, director del departamento de aprendizaje aplicado de máquinas, quien contó algunos detalles sobre su pequeña creación. “Es un algoritmo que detecta desnudez, violencia o cualquier otra cosa que no esté de acuerdo a nuestras políticas”, dijo el funcionario en un comunicado de prensa.

No obstante lo anterior, Yann LeCun, director de investigación de IA de Facebook, declinó a referirse con Reuters sobre si este proyecto puede o no detectar noticias falsas, un tema que preocupa especialmente a los estadounidenses luego de la elección de Donald Trump y que ciertamente representa un paso previo al estipulado como su misión principal, por lo que aún no existe una real certeza sobre lo que el algoritmo pueda o no determinar como inadecuado, y menos si lo podrá hacer con transmisiones en vivo, donde el factor sorpresa está siempre presente.

Por ahora no existe una fecha definitiva para comenzar a usar este programa en Facebook Live, dado que claramente aún falta mucho por desarrollar, sin embargo las intenciones están y a Stephen Hawking no le gusta esto.

No olviden seguirnos y comentar en Facebook.