Meta comparte su herramienta para evitar los post que bloquean el contenido terrorista
Los de Menlo Park compartir芍n con varias empresas su sistem para luchar contra la informaci車n violenta que circula por las redes sociales.
Las redes sociales son lugares m芍s inh車spitos de lo que parecen. Si tienes claros tus intereses seguro que no encontrar芍s mucho contenido que se salga de lo que te gusta o buscas, pero en ocasiones te puedes encontrar con post que son francamente desagradables. Las diferentes compa?赤as se han esforzado y mucho para eliminarlos en la medida de lo posible y en el caso de Meta por fin veremos c車mo m芍s empresas ayudan en su labor antiterrorista al publicar su propia herramienta. Meta comparte su herramienta para evitar el contenido violento No es la primera vez que nos encontramos hablando de los problemas de las redes sociales para los m芍s j車venes. Son los usuarios m芍s sensibles al contenido que circula por ellas y, en ocasiones, se pueden topar con un problema grande cuando se trata de contenido violento, que incita al terrorismo o que, en el peor de los casos, intentan reclutar a gente con el fin de preservar una causa violenta. Por suerte, en Meta se han tomado muy en serio este y otros asuntos como las noticias falsas y ahora quieren compartir con el mundo una herramienta llamada Hasher-Matcher-Actioner (HMA). El nombre es un poco extra?o, lo sabemos, pero lo importante es lo que hace que es avisar del uso indebido de contenido que viole las normas de uso del servicio. C車mo funciona HMA La compa?赤a tiene claro que hay que encontrar la forma de hacer que los servicios en l赤nea sean m芍s transparentes y tengan m芍s herramientas de moderaci車n. La compa?赤a ha lanzado un comunicado de prensa en el que ha advertido de lo importante que es la eliminaci車n de contenido en cualquier tipo de p芍gina. Pero una parte importante tiene que ver con el funcionamiento de este programa de c車digo abierto. Este funciona de tal forma que es capaz de encontrar im芍genes duplicadas o parecidas para ayudar a detectar fotograf赤as que hagan enaltecimiento del terrorsimo. Lo mismo pasa con los videos, donde un algoritmo es capaz de reconocer un video que se asemeje a otros que hayan sido prohibidos. Ser芍 desde el pr車ximo mes de enero cuando este software estar芍 disponible para todas las empresa que quieran desarrollar con este sistema.