Con un volumen de 400 vídeos por minuto subidos a la plataforma, la ayuda de esta tecnología, implementada desde junio de 2017, ha sido vital en la detección de contenido inapropiado que viola los términos y condiciones del servicio.
2017 no ha sido un buen año para la reputación de las redes sociales. La interferencia electoral de los grupos respaldados por Rusia y su difusión, el fenómeno conocido como las «fake news»; la distribución de contenido extremista que dio lugar incluso a altercados; las dudas de los gobiernos europeos en torno al tratamiento de los datos de los usuarios o la amenaza de pérdidas masivas de puestos de trabajo debido al auge de la inteligencia artificial, comparada con descubrimientos como «el fuego o la electricidad», han situado a estas plataformas en el ojo del huracán. Como respuesta, las compañías han puesto en marcha diversas campañas para cambiar esta percepción «maligna» que aletea sobre las compañías, además de explicar cómo los avances tecnológicos (con la inteligencia artificial a la cabeza) pueden ayudar a hacer más seguro el entorno digital.
Un ejemplo de este intento por mostrar el potencial positivo de estas comunidades online es la iniciativa «YoMeSumo», un proyecto creado por Google a través de su marca YouTube en colaboración con elGobierno de España, la Red Aware, FeSP UGT y la ONG Jóvenes y Desarrollo. Su objetivo es llegar a 28.000 jóvenes de todo el país con charlas en centros educativos y a través de las redes sociales para luchar contra el discurso del odio en todas sus facetas, también en internet.
«Youtubers buenos» contra «youtubers malos»
«Últimamente, se han publicado casos de creadores en Youtube que justamente difundían mensajes negativos. Y lo que buscamos con esta campaña es mostrar que somos más los que estamos en contra del discurso del odio y a favor de la diversidad y la tolerancia», explica para ABC Vicky Campetella, responsable de prensa de YouTube en España. Para esta iniciativa cuentan con ocho «youtubers» españoles, como Yellow Mellow o Andrea Compton, y con artistas urbanos de la talla de Arkano o Rayden. «Lamentablemente, estos chicos no tienen la misma visibilidad que tienen otros casos negativos, por lo que la intención de YouTube es impulsar su mensaje para que penetre con más facilidad», afirma la portavoz de YouTube.
La polémica en torno a Logan Paul, conocido «youtuber» que mostró en uno de sus vídeos un cadáver en Japón, hizo saltar las alarmas, propiciando el debate acerca de la responsabilidad de plataformas como YouTube en los contenidos que se suben a su red. Además, proliferan los casos de usuarios que, a través de sus comentarios, fomentan este tipo de prácticas, ya sea insultando a los «youtubers» o propagando mensajes negativos que son accesibles a toda la comunidad.
«Hay que entender que YouTube es una plataforma tecnológica, no es un medio de comunicación, y no es su deber adentrarse en el contenido, porque creemos en la libertad de expresión. Lo que sí hacemos es ofrecer herramientas a los creadores para que ellos mismos puedan monitorizar los comentarios y moderarlos por sí mismos, porque se trata de un espacio autorregulable. Confiamos en que los propios usuarios nos ayuden en esto», señala la responsable de YouTube en España. Pero la responsabilidad no solo recae en los cibernautas: las compañías, entre ellas YouTube, se han aliado con la inteligencia artificial para detectar, incluso antes de que se reporte, el contenido que viola sus políticas y condiciones del servicio.
La AI identifica el 98% del contenido inapropiado
«Se suben 400 horas de vídeo por minuto, con lo que la revisión previa es humana y tecnológicamente muy compleja hoy en día. Ahora bien, queremos actuar de una forma responsable, por lo que estamos aplicando la inteligencia artificial para detectar de manera temprana estos vídeos inapropiados», explica Campetella. Un sistema que es capaz de identificar el 98% de los archivos retirados, que han sido 150.000. «Desde que comenzamos a usar el aprendizaje automático en junio del año pasado hemos revisado y detectado contenidos que podrían haber precisado para su valoración la intervención de 180.000 personas trabajando 40 horas a la semana. Dada su efectividad, hoy estamos aplicando esta tecnología en otros campos como la seguridad de los niños», afirma la responsable.
Sin embargo, y aunque las cifras puedan alertar a los escépticos de las ventajas de la inteligencia artificial, YouTube anunciaba a finales de año que también reforzaría su equipo humano, encargado de revisar todos los avisos de contenido inapropiado que llegan de parte de los usuarios.
Trabajando con expertos
En cuanto a la seguridad de los niños, en su intento por crear un entorno «sano», se creó «YouTube Kids». Esta aplicación, desarrollada por Google y enfocada a menores de entre 2 y 8 años y sus familias, estuvo en el punto de mira tras «infiltrarse» imágenes de niños en actitudes insinuantes, incluso vinculadas a pedófilos, cuentas que la compañía eliminó tras conocer su existencia. «Es cierto que se suben muchos vídeos y, a veces, se cuela contenido que pareciera ser infantil que no es apropiado. Lo que hacemos es aplicar la tecnología para detectarlo de manera temprana, restringiendo por edades el contenido y poniendo avisos previos a la reproducción. También trabajamos con organizaciones que nos ayudan a identificar este tipo de vídeos», asevera Campetella.
Unos retos enfocados a su compromiso de «hacerlo bien» -tal y como afirmaban fuentes de YouTube a ABC-, en un entorno en el que parecen no acabarse las amenazas.
Fuente: ABC.es
@JuanErnestoVargasUribe y @MarcelaGiraldo , los invitamos a leer esta noticia, la cual será de su interés !!
Deja una respuesta
Lo siento, debes estar conectado para publicar un comentario.