Nota de EU89.7
Facebook admite fallos en inteligencia artificial en video terrorista

La acción fue retransmitida en directo en la función de video en vivo de la plataforma y fue vista unas 4.000 veces antes de retirarlo.

Facebook admite fallos en inteligencia artificial en video terrorista

Con información de la agencia de noticias: EFE 


La multinacional estadounidense Facebook admitió que su sistema de inteligencia artificial para detectar contenido no permitido en la red social “no es perfecto” y que falló a la hora de reconocer el vídeo del atentado terrorista en Nueva Zelanda, que causó 50 muertos en dos mezquitas.

La acción fue retransmitida en directo en la función de video en vivo de la plataforma y fue vista unas 4.000 veces antes de que Facebook retirase la imagen por primera vez.  Aunque posteriormente hubo internautas que intentaron, con éxito o no, volver a colgar el video más de un millón de veces.

Le puede interesar: El tirador transmitió por Facebook la masacre cometida en una mezquita

En una entrada en el blog de la compañía, el vicepresidente de gestión de producto de Facebook, Guy Rosen, explicó que: aunque la inteligencia artificial ha logrado un “progreso masivo en muchas áreas en los últimos años” que les permite ser “proactivos” en la detección de contenidos, el sistema “no es perfecto”.

“La inteligencia artificial se basa en datos de entrenamiento, lo que significa que necesita miles de ejemplos de contenido para que pueda detectar ciertos tipos de texto, imágenes o vídeos”, apuntó Rosen, quien explicó que fue por eso por lo que en el caso de la retransmisión en directo del atentado, el sistema no funcionó.

Facebook dice que eliminó “rápidamente” video de ataque en Nueva Zelanda

“Necesitamos proveer a nuestros sistemas de grandes volúmenes de datos, algo que resulta difícil puesto que, afortunadamente, este tipo de sucesos no son habituales”, indicó el vicepresidente de la empresa, quien aseguró que la inteligencia artificial sí funciona en los casos de la desnudez, la propaganda terrorista y la violencia gráfica.

Rosen también apuntó al “reto” que supone discernir entre contenidos como el del atentado y otros “visualmente similares, pero inocuos”, como por ejemplo las retransmisiones en directo de partidas de videojuegos en los que el protagonista dispara contra personas.

Con información de la agencia de noticias: EFE