¿Listo para pasar a la acción y acelerar la innovación? Lee nuestro Flipbook de Innovación

Spotify busca éticas mejores para su IA

Spotify busca éticas mejores para su IA

Spotify busca éticas mejores para su IA

Si buscas «responsabilidad algorítmica» en Spotify, encontrarás cero canciones y un puñado de podcasts. Pero, detrás de esto, la compañía aparentemente está trabajando en este campo. Spotify busca éticas mejores para su IA.

En el último mes, la compañía ha publicado tres puestos vacantes para investigadores y científicos de datos en su equipo de impacto algorítmico. Las nuevas contrataciones ayudarían a evaluar el impacto de los algoritmos de Spotify en la cultura del audio. Además, también investigarán y ayudarán a evitar posibles daños relacionados con la IA de la empresa.

Spotify busca éticas mejores para su IA

Spotify es conocido como el servicio de streaming de audio líder en el mundo. Tiene más de 400 millones de usuarios activos en sus niveles gratuitos y de pago. Debido al alcance de la empresa, que incluye usuarios en más de 180 mercados, sus algoritmos de recomendación tienen un impacto significativo en el mundo de la música y los podcasts. Se requiere un escrutinio minucioso. Un estudio de 2021 mostró que los algoritmos de recomendación musical tenían más probabilidades de favorecer a artistas masculinos.

Actualmente, Spotify tiene al menos a dos personas trabajando a tiempo completo en su equipo de impacto algorítmico según LinkedIn. Esto significa que le darían al equipo al menos cinco trabajadores más a tiempo completo.

Spotify busca éticas mejores para su IA

Los científicos investigadores entrantes de Spotify tienen una larga lista de cosas por hacer. Ayudarán a crear políticas empresariales concretas. También procesos de evaluación en torno a una IA responsable, lo que incluye trabajar con los equipos de políticas, productos e investigación de Spotify. El trabajo también incluye la publicación de las investigaciones, así como la revisión del «contenido confidencial» que podría surgir como resultado de daños algorítmicos.

Como referencia, esto no suena muy diferente de los objetivos de Twitter para su equipo de IA responsable relativamente nuevo. Por su parte, los científicos de datos ayudarían a establecer parámetros en torno a recomendaciones de podcasts, música y más. También diseñarían estudios y experimentos centrados en la confianza y seguridad algorítmica. Desarrollarían métricas para estudiar la amplificación algorítmica y ayudarían con la moderación y el contenido.

Comentarios
Subscribirse
Notificar de
guest
0 Comentarios
Comentarios online
Ver todos los comentarios
Agenda próxima
No hay eventos próximos
Destacados
Otros artículos
Podcasts
EP123: Simulación molecular en la Universidad Andrés Bello usando AWS
*
*
*
El nombre de usuario o nick es el nombre público para comentarios y foro. ¡Eligelo bien, luego no se puede cambiar!
*
*
    Strength: Very Weak
    *
    Al registrarse en decisores, acepta los Términos del sitio web y la política de privacidad
     
    *
    *
     

    Únete a los decisores

    Súmate a la comunidad de directivos que afronta todos los retos de un comité de dirección.

    Iniciar sesión
    *
    *
     
     
    Contraseña olvidada
    Por favor, introduce tu usuario o tu correo electrónico.
    *
     

    ¡Mantente informado! y únete a nuestro canal de Telegram

    ¡Hola! hemos visto que te ha interesado esta noticia, tenemos un canal de Telegram donde las comentamos ¿Quieres unirte?

    0
    Nos encanta oír tus pensamientos, por favor deja un comentariox