Los videos musicales de U2 ahora se están utilizando en el estudio de inteligencia artificial

U2 - With Or Without You

U2 - With Or Without You
Anonim

La inteligencia artificial podría algún día escanear los videos musicales que vemos para encontrar opciones de descubrimiento predictivo de música basadas en las emociones del intérprete. Lo que significa que A.I. pronto será capaz de reconocer la cara triste de Bono y servirle más mopey Bono, o tal vez algo más sonriente.

La tecnología para hacerlo no ha llegado todavía, pero Diane Rasmussen Pennington, profesora de la Universidad de Strathclyde en Glasgow, Escocia, realizó una investigación de 150 videos realizados por fanáticos de U2 y registró pistas emocionales no basadas en texto para demostrar qué rasgos faciales y los objetos pueden ser más útiles para futuros programas de software.

"Revelación completa, U2 ha sido mi banda favorita durante mucho tiempo", dice Pennington. Inverso, y agregó que había varias otras razones para usar los videos de la banda como campo de pruebas. "Objetivamente, desde la lectura que he hecho y no solo mi percepción como fanático, generalmente las personas a quienes les gusta la música de U2 encuentran que es una experiencia muy emotiva cuando la escuchan, tal vez más que otras bandas. … Hay algo casi muy espiritual para los fanáticos de la banda ".

Pennington eligió enfocarse en solo una canción de U2, "Song For Someone" del controvertido disco de la banda en 2014 Canciones de la inocencia, que está en una tonelada de iTunes de las personas, ya sea que se quiera o no. Los videos incluyeron presentaciones de diapositivas de los fans con el apoyo de la música de la banda, tutoriales sobre cómo interpretar la canción y, por supuesto, las portadas. Clasificó las expresiones faciales de los artistas y los recuerdos de los fanáticos, como camisetas, carteles de conciertos y gafas de sol inspiradas en Bono.

Pennington dice que el A.I. El software está mejorando en la identificación de diferentes texturas y objetos circulares en fotos y videos, pero espera que su investigación pueda ser un pequeño paso para identificar el significado emocional detrás de esos objetos.

Facebook ha señalado que quiere crear A.I. eso es "más perceptivo que las personas" para servir mejor el contenido y los anuncios basados ​​en señales visuales de videos y fotos compartidas en la plataforma. Twitter ya está probando su tecnología Cortex similar, que apunta a identificar de manera inteligente los objetos en las transmisiones en vivo de Periscope para recomendar mejor los eventos de transmisión de video en vivo.

Los mismos conceptos podrían aplicarse a las guerras de transmisión continua de música. Entre las principales plataformas de transmisión de música, es una carrera para desarrollar el mejor software de descubrimiento predictivo. Apple Music utiliza curadores humanos para hacer listas de reproducción para compensar la falta de consistencia encontrada en los programas algorítmicos utilizados por sus competidores, Spotify y Google.

En última instancia, los tecnólogos como el presidente ejecutivo de Alphabet y el fundador de Google, Eric Schmidt, predicen que los consumidores del futuro dependerán de los programas informáticos para brindarles opciones de descubrimiento de música.

Spotify y Apple Music tienden a hacer afirmaciones audaces sobre la cantidad de suscriptores mensuales, pero por ahora el rey es YouTube, con más de mil millones de usuarios mensuales, que dominan el panorama de la transmisión de música.

YouTube Red y la aplicación YouTube Music hacen un buen trabajo al ofrecer nuevas y diferentes opciones para el descubrimiento de música, pero se ve arrastrada por su incapacidad para identificar realmente lo que se está reproduciendo en la pantalla. Claro, Google sabe a qué videos le gustaron, los vio 50 veces repetidamente, los compartió en las redes sociales y comentó, pero no tiene las indicaciones visuales para decir por qué.

Las audiencias también podrían generar resultados de búsqueda basados ​​en el sentimiento emocional detrás de las canciones y sus intérpretes. Por ejemplo, una búsqueda de "Bad Day" en el día de hoy puede mostrar el single de Daniel Powter, pero en el futuro los usuarios podrán ver ese video musical junto a artistas más personalizados que simplemente evocan la emoción de tener un mal día y no específicamente esa canción.. También vale la pena señalar que los resultados de búsqueda de YouTube se basan actualmente en gran medida en las vistas, mientras que los "me gusta", los "compartir" y los comentarios afectan más directamente a los artistas sugeridos en el sitio de escritorio o la selección de la lista de reproducción en la aplicación "YouTube Music".

La investigación de Pennington podría ser un paso no solo para identificar qué hay en nuestras pantallas, sino también por qué bandas como U2 evocan una respuesta tan emocional.