Una historia de Fake News, Inteligencia Artificial y Content Curators

Una historia de Fake News, Inteligencia Artificial y Content Curators

Una de las tendencias que marcan nuestros días es sin duda la desinformación o “fake news” durante este año hemos publicado algunos post que hacía referencia a cómo verificar información de calidad y a fuentes para detectar fakenews

Entre las posibles soluciones a este problema se ha hablado mucho de la aplicación de la inteligencia artificial, que utiliza diferentes algoritmos y tecnologías para identificar desinformación.

La desinformación es un problema constante al que se tiene que enfrentar plataformas como YouTube, Twitter o Facebook y cualquier analista de información de una organización cuando se plantea escribir un informe para sus superiores u organización.

Desde que apareció COVID-19 el nivel de digitalización y la implantación de nuevas soluciones de inteligencia artificial se ha desarrollado de forma acelerada en grandes compañías.

Merece especial atención que Youtube en plena pandemia decidiera eliminar al equipo de moderadores manuales de contenidos y sustituirlos por un algoritmo de detección automática capaz de eliminar los contenidos inapropiados.

Es ahora después de varios meses que Youtube explica en su informe de transparencia  que ha eliminado más contenido que nunca durante el segundo trimestre de 2020. Unos 11,4 millones de vídeos para ser exactos.

La falta de moderación manual (humanos) se refleja en la cantidad de videos eliminados que son etiquetados automáticamente como peligrosos. Eso significa que más no es siempre mejor, puesto que este hecho ha implicado en la cantidad de youtubers que se han trasladado de plataforma como consecuencia de que sus videos no fuesen aprobados y por ende no pudiesen ser monetizados ni compartidos con su audiencia. Lo que les ha hecho replantearse su estrategia.

El directivo principal de Youtube Mohan dice que “el trabajo de los moderadores humanos es vital”, puesto que toman decisiones más matizadas en áreas como el discurso de odio, desinformación médica o acoso.

Esta noticia destaca en una época en la que, solo se publican las bondades y los hitos que está logrando la Inteligencia Artificial en múltiples áreas como AlphaGo y AlphaZero que pueden derrotar a los mejores jugadores de Ajedrez o Go del mundo, u otros algoritmos que se están aplicando a identificar imágenes y videos manipulados como DeepFake. Así como los medios de comunicación que usan herramientas de IA para automatizar, recomendar y sistematizar algunos contenidos -de deporte, finanzas, tecnología, motor, política.

Desde luego esta tecnología llegará para quedarse, pero la conclusión que podemos extraer de esta noticia es, que la Inteligencia Artificial deberá estar supervisada por la inteligencia humana y eso nos parece una gran noticia.

Nosotros creemos que la inteligencia artificial será una tecnología que complemente la moderación manual, difícilmente llegará a sustituirla, pues es nuestra forma de comprender el mundo lo que siempre nos ha diferenciado. Confío en que estos casos de uso nos sirvan para dar con la clave en la implantación de soluciones de IA aplicadas a contenidos digitales de calidad.

Puntúa este item
(1 Votar)

Deja un comentario

Sobre e-intelligent

e-intelligent es una empresa con más de 18 años de experiencia en el desarrollo de proyectos relacionados con la Gestión de Convocatorias, la Inteligencia Competitiva, el Desarrollo de Software, la Consultoría Web y el Marketing online.

Contacta con nosotros

Avenida Leonardo da Vinci, 8
Bloque II, Oficina 227
Parque empresarial La Carpetania
28906 Getafe Madrid SPAIN
Teléfono: +34 91 332 52 88

Este sitio usa cookies para mejorar la experiencia de usuario, si permaneces en ella entendemos que estás de acuerdo.