Un pódcast a fondo sobre tecnología, ciencia y entretenimiento (no siempre en ese orden). Ganador de 2 Latin Podcast Awards y del Premio Nacional de Periodismo CPB 2022. Los episodios de este pódcast son monólogos divertidos para aprender sobre gadgets, apps, consejos tecnológicos, series en Netflix, Amazon Prime, HBO Max, Disney+, Star+; y aplicativos para Android y para iOS. Y mucho de Apple, Android, Windows y Chromium. También ciencias, astronomía y satélites con tono entretenido. El pódcast "El Siglo 21 es Hoy" se publica desde Bogotá, y casi siempre incluye el paisaje sonoro espontáneo de la ciudad. Por favor usa auriculares para disfrutar el paisaje sonoro. Es presentado por Félix Riaño, @LocutorCo hablando en tono familiar sobre la vida cotidiana llena de tecnología para productividad y entretenimiento. Félix es el mismo que habla de noticias en El Primer Café de El Tiempo y Spotify Studios. Ese es él en su faceta más seria. Allá habla de noticias de actualidad y aquí habla de todo lo que aprende de series, astronomía, apps y tecnología. ¡Manda tus comentarios aquí o en https://instagram.com/LocutorCo !

Moderar Spotify (agujas en el pajar) 🪡

October 11, 2022 0:45:42 43.87 MB Downloads: 0
Moderación en Spotify
ElSiglo21esHoy.com

En Spotify hay algoritmos de recomendación, playlists, en música, en Pódcast hay promoción de pódcast originales o títulos destacados.

¿Cómo encontrar los títulos más adecuados y cómo detectar los inadecuados?



1: La compra de Kinzen

Kinzen es una empresa de tecnología que fue adquirida por Spotify. la sede de la empresa está en Dublín. Kinzen se dedica a ofrecer herramientas para moderación de contenidos. También está creando una versión para editores de su experiencia (un proyecto financiado por Google Digital News Initiative).

Comprada por Spotify:

“Spotify se complace en compartir que hemos adquirido Kinzen, con sede en Dublín, Irlanda, líder mundial en la protección de comunidades en línea contra contenido dañino“. 

“Dada la complejidad de analizar contenido de audio en cientos de idiomas y dialectos, y los desafíos para evaluar de manera efectiva los matices y la intención de ese contenido, la adquisición de Kinzen ayudará a Spotify a comprender mejor el panorama de abuso e identificar amenazas emergentes en la plataforma.”

Una red global de expertos locales analiza y codifica el lenguaje dañino en 28 idiomas y mercados.

Editores y algoritmos

Kinzen es una empresa comercial. Tienen inversión inicial que fue proporcionada por:
- la empresa de medios danesa FST,
- el inversor público irlandés Enterprise Ireland
- y el fondo de inversión irlandés BVP.

Detección, no verificación

Kinzen no es una organización de verificación de hechos. Ayuda a socios a anticiparse y prepararse para las cepas emergentes de contenido dañino, y a ser ágiles en la forma en que responden a las amenazas que evolucionan rápidamente.

- Experiencia en los mercados en inglés, alemán, árabe, español, portugués, hindi, turco, francés, ruso y sueco.
- Investigación a medida sobre temas como la integridad electoral y la desinformación sobre vacunación.




2: Agujas en el heno
Andrew McDowell - Senior Machine Learning Engineer

[https://www.kinzen.com/blog/finding-needles-in-the-hay-how-we-think-about-the-challenge-of-moderating-audio]

Moderación del contenido en pódcast: Con texto escrito, un editor puede escanear rápidamente un artículo en busca de señales de alerta y su experiencia le dirá dónde se requiere una mirada más cercana. Con audio es más difícil.

La búsqueda de frases o términos específicos en grandes volúmenes de texto es un problema que se comprende bien y se soluciona mediante muchas técnicas y herramientas. Esto se vuelve mucho más complicado con el audio. 

Hay un límite en la velocidad con la que se puede acelerar un clip antes de que se vuelva ininteligible para un oyente, por lo que descubrir los peligros que plantea una hora de audio requiere una inversión de tiempo significativa por parte del editor. 

Buscar si un término o una frase en particular se ha pronunciado en voz alta es mucho más desafiante que en texto.

- “TikTok fue demandada por dos ex empleadas dedicadas a moderar contenidos, evitar imágenes brutales, discursos de odio y teorías conspirativas, en un menú de lo peor disponible en Internet. Facebook ya desembolsó US$52 millones en reparaciones de este tipo. Las acusaciones se repiten: daño psicológico, falta de apoyo emocional y sobrecarga laboral. Los moderadores en plataformas de vídeo están expuestos a ver maltrato animal, torturas, ejecuciones y comportamientos execrables.”

[https://www.latercera.com/piensa-digital/noticia/el-dificil-trabajo-de-los-moderadores-de-redes-sociales/VKEXYDPSFJGYZLTQX2VMQBATJM/]


Otros servicios de transcripción

Hay muchos servicios que ofrecen reconocimiento automático de voz y el campo ha recorrido un camino increíble en los últimos cinco años especialmente. Descubrimos que, si bien muchos de estos servicios produjeron transcripciones de alta calidad y muy fáciles de leer, a menudo se quedaron cortos en áreas clave para nuestros propósitos.

- Google:
- YouTube
- Pinpoint
- Apple Podcasts
- Spotify contenido propio original

Hay otros servicios que brindan la tecnología, como IBM y Startups.

Servicios de moderación:

Accenture, Covalen y Cpl proveen moderadores de contenido tercerizados a Facebook, Instagram, YouTube y Twitter.

TikTok ofrece puestos fijos internos en su compañía con salarios mucho más atractivo que sus rivales para estos perfiles.

Según businesinsider “Durante sus jornadas de trabajo se cruzan con videos e imágenes espeluznantes; desde violaciones y mutaciones hasta decapitaciones y otras formas de violencia, por lo que es un trabajo que requiere una gran fortaleza mental.”

[https://businessinsider.mx/tiktok-moderadores-de-contenido-dublin_tecnologia/]




3: automatización

Automatic Speech Recognition (ASR)

La mayoría de los sistemas de transcripción tipo ASR funcionan en dos etapas:

- El primero procesa el audio y hace predicciones sobre a qué letras podrían corresponder los sonidos.
- El segundo toma estas predicciones y las alimenta a un modelo de lenguaje, que luego evalúa estas predicciones contra el idioma de destino para ver si parecen palabras u oraciones reales.

Machine learning

El modelo de lenguaje generalmente usa técnicas de aprendizaje automático sobre estadísticas en una gran colección de textos escritos (conocido como entrenamiento del modelo).

Esto le permite comprender la probabilidad de que una letra o palabra determinada aparezca en combinación con las letras de palabras circundantes. Igual con sonidos.

Limpiar la paja para buscar las agujas

Para usar la analogía de la aguja en el pajar, asegura que todo en el pajar esté limpio y ordenado, por lo que cuando tenemos una aguja en la mano, se vuelve fácil analizarlo.

Hay que resaltar las agujas en primer lugar. 

- Identificar cuando se usa música que no tiene permisos.
- Identificar noticias falsas
- Identificar mentiras intencionadas a la manipulación o desinformación
- Identificar comportamientos de odio y discriminación

Acrónimos

Un nuevo hashtag político puede pasar de ser acuñado a ser tendencia mundial en días, si no horas. Si un modelo de lenguaje nunca ha visto un término lo considerará un error ortográfico y lo corregirá a una palabra válida. Esto es particularmente cierto en el caso de frases que surgen de acrónimos.

Moderar grandes volúmenes de audio significa depender de servicios de terceros para las transcripciones

El peligro de transcribir lo esperado y no lo encontrado

La transcripción parece una tarea general pero, como hemos visto, abordarla sin especialización puede conducir a la trampa de producir hermosos montones de heno que ocultan aún más las agujas que hay dentro.

Como se hace en YouTube: Hay filtros automatizados y hay “Moderadores”.

La misión de los moderadores de contenido es filtrar y monitorizar todo aquello que puede resultar perjudicial o traumático para los usuarios dentro de una red social.

1. Según bussinesinsider “Un reportaje de Financial Times reveló que cientos de trabajadores encargados de moderar el contenido de Facebook e Instagram se han ido a TikTok, atraídos por mejores condiciones de trabajo.”
2. Facebook tiene un «trust and safety hub» en Irlanda.
3. ByteDance también tiene este tipo de instalaciones en California y en Singapur, donde trabajan miles de moderadores.

Aplica para trabajar en Kinzen:

[https://www.kinzen.com/join-editorial-network]

Siempre estan buscando personas con experiencia y conocimientos para unirse a su Red Editorial.