Los macrodatos pueden ayudar a las computadoras a identificar emociones ligadas a imágenes
Los sitios populares como Twitter y Facebook y otros canales ahora están llenos de imágenes que ayudan a una persona a expresar mejor sus pensamientos y sentimientos. Una nueva investigación sugiere que los “big data” (cualquier colección de conjuntos de datos tan grandes o complejos que sea difícil de procesar utilizando aplicaciones tradicionales de procesamiento de datos) se pueden utilizar para enseñar a las computadoras a interpretar el contenido y los sentimientos asociados con las imágenes.
El Dr. Jiebo Luo, profesor de informática en la Universidad de Rochester, en colaboración con investigadores de Adobe Research, presentó recientemente un artículo en una conferencia de la Asociación Estadounidense de Inteligencia Artificial (AAAI), que describe una red neuronal convolucional profunda de entrenamiento progresivo (CNN) .
La computadora entrenada se puede usar para determinar qué sentimientos es probable que provoquen estas imágenes. Luo dice que esta información podría ser útil para cosas tan diversas como medir indicadores económicos o predecir elecciones.
Sin embargo, la tarea es compleja. El análisis de sentimientos de texto por computadora es en sí mismo una tarea desafiante. Y en las redes sociales, el análisis de sentimientos es más complicado porque muchas personas se expresan usando imágenes y videos, que son más difíciles de entender para una computadora.
Por ejemplo, durante una campaña política, los votantes suelen compartir sus puntos de vista a través de imágenes.
Dos imágenes diferentes pueden mostrar al mismo candidato, pero pueden estar haciendo declaraciones políticas muy diferentes. Un ser humano podría reconocer uno como un retrato positivo del candidato (por ejemplo, el candidato sonriendo y levantando los brazos) y el otro como negativo (por ejemplo, una imagen del candidato que parece derrotado).
Pero ningún ser humano podría ver todas las imágenes compartidas en las redes sociales: es realmente "big data". Para poder hacer conjeturas informadas sobre la popularidad de un candidato, las computadoras deben estar capacitadas para digerir estos datos, que es lo que Luo y el enfoque de sus colaboradores pueden hacer con mayor precisión de lo que era posible hasta ahora.
Los investigadores tratan la tarea de extraer sentimientos de las imágenes como un problema de clasificación de imágenes. Esto significa que, de alguna manera, es necesario analizar cada imagen y aplicarle etiquetas.
Para comenzar el proceso de capacitación, Luo y sus colaboradores utilizaron una gran cantidad de imágenes de Flickr que han sido etiquetadas libremente por un algoritmo de máquina con sentimientos específicos, en una base de datos existente conocida como SentiBank (desarrollada por el grupo del Dr. Shih-Fu Chang en Columbia Universidad).
Esto le da a la computadora un punto de partida para comenzar a comprender lo que pueden transmitir algunas imágenes.
Pero las etiquetas generadas por la máquina también incluyen una probabilidad de que esa etiqueta sea verdadera, es decir, ¿qué tan segura está la computadora de que la etiqueta es correcta?
El paso clave del proceso de entrenamiento viene a continuación, cuando descartan cualquier imagen para la cual el sentimiento o sentimientos con los que han sido etiquetados podrían no ser ciertos. Por lo tanto, usan solo las imágenes etiquetadas como "mejores" para el entrenamiento adicional de una manera que mejora progresivamente dentro del marco de la poderosa red neuronal convolucional.
Resaercher descubrió que este paso adicional mejoraba significativamente la precisión de los sentimientos con los que se etiqueta cada imagen.
También adaptaron este motor de análisis de sentimientos con algunas imágenes extraídas de Twitter. En este caso, emplearon "inteligencia colectiva", con varias personas que ayudaron a categorizar las imágenes a través de la plataforma Amazon Mechanical Turk.
Utilizaron solo una pequeña cantidad de imágenes para ajustar la computadora y, sin embargo, al aplicar este proceso de adaptación de dominio, demostraron que podían mejorar los métodos de última generación para el análisis de sentimientos de las imágenes de Twitter.
Un hallazgo sorprendente es que la precisión de la clasificación del sentimiento de la imagen ha superado la de la clasificación del sentimiento del texto en los mismos mensajes de Twitter.
Fuente: Universidad de Rochester