jueves 21 marzo 2019 6:05 PM
Redactor : Fernando Romero Mendoza
La red social admitió que su sistema de Intelegencia se basa en datos de entrenamiento, lo que significa que necesita de ejemplos de contenido para que pueda detectar ciertos tipos de texto, imágenes o vídeos, para detectar contenido no permitido en la red social se tiene que proveer los sitemas de grandes números de datos, por ellos tiene sus detalles y carece de perfección, un ejemplo es lo ocurrido con el fallo a la hora de reconocer el vídeo del atentado terrorista en Nueva Zelanda, que causó 50 muertos en dos mezquitas.
La acción fue retransmitida en directo en la función de video en vivo de la plataforma y fue vista unas cuatro mil veces antes de que Facebook retirara la imagen por primera vez, aunque posteriormente hubo internautas que intentaron, con éxito o no, volver a subir el video más de un millón de veces.
Guy Rosen, explicó que la inteligencia artificial se basa en datos de entrenamiento, lo que significa que necesita miles de ejemplos de contenido para que pueda detectar ciertos tipos de texto, imágenes o vídeos, apuntó que en el caso de la retrasmisión en directo del atentado, el sistema no funcionó.
Además de Facebook, el portal de videos Youtube también indicó esta semana haber retirado decenas de miles de videos del ataque en su plataforma y aseguró que lo ocurrido no tiene precedentes.
La primera ministra Jacinda Ardern, anunció la prohibición de las armas militares semiautomáticas y rifles de asalto, con algunas excepciones, como respuesta al atentado presuntamente perpetrado por el australiano Brenton Tarrant, quien utilizó dos armas semiautomáticas para realizar el ataque que dejo un gran número de víctimas.
Fuente: Milenio/fjrm/Foto: Internet
Paseo Usumacinta s/n Esq Ayuntamiento. Col Gil y Sáenz, Villahermosa, Tabasco