Archivo

Archive for the ‘Medios sociales’ Category

Entendiendo la TV Social con tecnologías de Análisis Semántico y Big Data

25 noviembre, 2013 Deja un comentario

Recientemente hemos participado en la conferencia Big Data Spain con una charla titulada “Real time semantic search engine for social TV streams”. En esta charla resumimos nuestra experiencia en el área de TV Social, donde estamos combinando tecnologías de análisis semántico y de procesamiento de flujos de datos (streams) en tiempo real para entender las redes sociales. 

La TV Social es un fenómeno en claro crecimiento ya que cada vez es más frecuente el uso de redes sociales mientras vemos la televisión. Por ejemplo, Twitter ya reportaba el año pasado que en Reino Unido más de un tercio de todos los comentarios durante el primetime eran sobre lo que pasaba en la pantalla del televisor. Hace semanas, Facebook reivindicaba su lugar en la TV social afirmando que el volumen de comentarios privados sobre TV en su plataforma era 5 veces mayor. Esta red social ha empezado también a ofrecer hashtags e incluso una nueva API, Keywords Insight, para que algunos socios tengan acceso a estadísticas agregadas de las conversaciones dentro de los muros de Facebook.

A medida que el número de usuarios que acaban comentando su programa favorito de TV en las redes sociales con amigos o extraños, las cadenas han empezado a hacer uso de estas herramientas para participar en la conversación. Durante el último año se ha incrementado el número de programas que hacen uso de hashtags oficiales, a veces incluso varios durante una sola emisión. Más allá de la búsqueda del trending topic, los que con mayor éxito han experimentado fomentan incluso la participación de presentadores o actores durante la emisión del programa. En España, “Salvados” o “Pesadilla en la Cocina” son ejemplo de lo primero y la serie “Isabel” para el caso de los actores.   

Aunque no hay nada nuevo en el hecho de socializar alrededor del contenido de la tele, la posibilidad de medir y de destilar estos comentarios sí que es característico del nuevo contexto. Además, esta conversación no se produce al día siguiente sino que su impacto es inmediato. Todo esto se suma para abrir un nuevo abanico de posibilidades para espectadores, radiodifusores y las grandes marcas. Los usuarios han encendido la mecha de la TV Social ya que les conecta con amigos y el resto de la audiencia.  Es a la vez una forma de sentirse parte del programa y al mismo tiempo de involucrarse más. Por tanto, las herramientas que faciliten organizar y comprender la conversación son de especial interés para el espectador social. Para el resto de espectadores, incluso para aquellos que solo participan leyendo, es una forma de generar tanto recomendaciones sociales. Otro uso interesante es que analizar la conversación social permite contextualizar contenido relevante y relacionado con el programa como información sobre los actores, personajes o cualquier otro concepto del que se hable en la pantalla grande.

Por otro lado, comprender la conversación en torno a un programa es de tremenda utilidad para los canales de TV y las marcas que los financian. Las productoras y cadenas pueden medir las preferencias de sus espectadores y los de la competencia, y además en tiempo real, según se está emitiendo. Está información cualitativa permite hacer una lectura mucho más informada de los datos cuantitativos de audiencia. Llegar a los consumidores adecuados y medir el impacto de las campañas de publicidad son solo dos ejemplos de lo que las marcas buscan en la TV social. Por último, no solo se trata de escuchar pasivamente, tanto los programas como los anuncios van a ser cada vez más interactivos y a buscar la participación de los espectadores mediante las redes sociales.  

En nuestra charla, describimos un sistema que combina análisis semántico y tecnologías de big data como una herramienta para sacar partido de las redes sociales. El sistema combina varios componentes de procesamiento de lenguaje natural de Textalytics API junto a una base de datos semi-estructurada, SenseiDB, para proporcionar visualizaciones interactivas de los comentarios de TV sobre la base de la búsqueda semántica, la búsqueda por facetas y un sistemas de analítica en tiempo real.

 

Mediante el uso de Textalytics API somos capaces de extraer información relevante para la TV social como el sentimiento acerca de una entidad (un programa, actor o deportista) Además, el reconocimiento de entidades y la extracción de información temática nos permite producir trending topics dentro de un programa con una alta correlación con lo que ocurre en pantalla. Estos temas unidos a las facetas online proporcionadas por SenseiDB funcionan como una manera efectiva de organizar la conversación al vuelo. Otras funcionalidades como el reconocimiento de idioma o la clasificación de texto cumplen un papel importante pero oculto y nos ayudan a filtrar el flujo de comentarios de contenido ruidoso.  

El segundo de los componentes esenciales del sistema es SenseiDB, una base de datos semi-estructurada de código abierto que permite ingerir streams y buscarlos en tiempo real, es decir, con baja latencia tanto en la indexación como en la búsqueda. SenseiDB incluye un gran número de tipos de facetas que permiten organizar los metadatos semánticos que extraemos con Textalytics. Con la ayuda de facetas de tipo histograma o rango se pueden realizar incluso ciertas tareas de analítica que incluyen tipos de datos complejos como el tiempo. Además, una de las características más interesantes es que incluye un lenguaje de consulta sencillo e intuitivo, BQL, que es de gran utilidad para el desarrollo iterativo de visualizaciones.

Si te ha parecido interesante, te animo a que le eches un vistazo a la presentación o incluso al vídeo del evento.

Últimas tendencias en análisis de datos en Big Data Spain 2013

19 noviembre, 2013 Deja un comentario

logo Big Data SpainLa segunda edición de Big Data Spain, uno de los eventos pioneros en las tecnologías y aplicaciones del procesamiento masivo de datos se celebró el 7 y el 8 de Noviembre en Madrid. El evento que consiguió atraer a más de 400 asistentes, el doble que el año pasado, refleja el creciente interés en estas tecnologías también en España. Daedalus participó con una ponencia donde demostraba el uso de tecnologías de procesamiento de lenguaje natural, Big Data y redes sociales para el análisis en tiempo real de la TV social.

La tecnología de Big Data ha crecido y madurado cuando están a punto de cumplirse 10 años desde la publicación de MapReduce, el modelo de computación masiva y distribuida que marcó su inicio.

Rubén Casado, en una de las charlas más útiles para establecer un mapa del ingente número de proyectos de Big Data y NoSQL definió la historia de la tecnología en tres fases:

  • Procesamiento masivo en batch ( 2003 – ) con exponentes como Hadoop o Cassandra.
  • Procesamiento en tiempo real ( 2010 – ) representado con tecnologías como StormKafka o Samza
  • Procesamiento híbrido ( 2013 – ) que trata de unificar los dos anteriores en un modelo de programación única. Son ejemplos notables Summingbird  o Lambdoop.

Sin duda, la primera hornada de soluciones está lista para la empresa con distribuciones basadas en la pila tecnológica de Hadoop como Cloudera, MapR o HortonWorks. Del mismo modo crece el número de empresas que están integrando u ofrecen servicios de consultoría sobre Big Data en sectores diversos como banca, finanzas, telecomunicaciones o marketing.

Otras tres tendencias claras a nivel tecnológico son:

  • la popularización de sistemas que facilitan la analítica online de grandes volúmenes de datos (Spark, Impala, SploutSQL o SenseiDB)
  • la vuelta de SQL, o al menos de dialectos que reduzcan el tiempo de desarrollo
  • la importancia de la visualización como herramienta para comunicar los resultados de manera efectiva.

Pero, por supuesto, adoptar la filosofía Big Data en una empresa no es una cuestión puramente tecnológica. Requiere de una visión clara de los beneficios que genera basar tu negocio en datos y del valor y el conocimiento que se puede extraer integrando los datos internos y externos. Otro factor importante es contar con profesionales que sepan romper la barrera entre los aspectos más técnicos y los de negocio. En ese sentido cobra especial importancia la figura del científico de datos. Sean Owen de Cloudera la definió como “una persona que entiende la estadística mejor que un ingeniero software y es mejor en ingeniería software que cualquier estadístico”. Sin duda a estas habilidades hay que añadir el conocimiento del negocio y la capacidad para plantear las preguntas adecuadas.

Aunque no todas las opiniones coincidían, la mejor forma de empezar a “hacer Big Data” es poco a poco y abordando proyectos con objetivos de negocio bien definidos. Buenos candidatos para experimentar con la tecnología son aquellos procesos que ya suponen un cuello de botella. En otros casos, sin embargo, la necesidad viene por el lado de innovar, bien mediante la integración de datos externos o el diseño de productos basados en los datos. Buen ejemplo de este caso es la iniciativa de Big Data desde el Centro de Innovación BBVA que proporciona información agregada sobre transacciones de tarjetas de crédito.

TextalyticsPor último, y entroncando con lo que fue nuestra charla, uno de los tipos de fuentes externas donde hay un valor importante es en el uso de datos de las redes sociales. Por su heterogeneidad, se trata de uno de las fuentes de datos que plantea mas retos. Por esta razón, las herramientas de análisis de texto, como Textalytics API, deben formar parte de cualquier estrategia de Big Data ya que nos van a facilitar cruzar información cuantitativa y cualitativa con todo el valor que esto genera.

Si te interesa entrar en más profundidad, los videos de las charlas y los paneles de expertos se encuentran disponibles desde la web de Big Data Spain

The Citizen Sensor: the citizen as a sensor in the city of the future

sensorciudadano1One of our most promising lines of work in the Ciudad2020 R&D project (INNPRONTA Program, funded by CDTI, Technological and Industrial Development Center) focuses on the concept that we have defined as Citizen Sensor: the log of events in relation with citizens and their municipality.

By applying Textalytics’ semantic technologies, we can analyze in detail the citizen’s voice, extracting heterogeneous, high-level information. Being this highly descriptive and with high added value, it is useful to model the citizen’s urban behavior and his/her relationship with the city of the future. In this way the citizen becomes a sensor integrated in the network of sensors of the systems of the city.

The Citizen Sensor can provide data in different ways:

  • Mobile phone.- For example, to detect noise pollution, the user could start an application on his/her smartphone to record the noise level and send it to the city servers. This act will give us a map of the most significant sources of noise of the city, which evolves over time (works in the mornings, parties on weekends…).
  • Citizen’s events.- For example, the user validates the train ticket to go to work. This, added to the events generated by the rest of users who use the train, will give us an idea of the density of travelers who use the train to go to work each morning and which way they go through.
  • Social networks.- Our systems can analyze the flow of tweets in a geographic area to know what users are talking about, and if it is something relevant (a car crash that provokes traffic jams, a fire, a music festival…) we can use those data to develop a precise model with much more adjusted predictions. We can also collect the citizens’ thinking or opinion with respect to policies taken by the local authority (for example, the policy of reducing consumption on air-conditioning in public transport).

As a preliminary work, we have built an ontology that defines the different dimensions which are going to guide the semantic analysis. We are currently collecting information from Twitter, and in particular, our aim is to identify in each tweet the location where the user is located (a public building like the city hall or a hospital, parks, transportation facilities, places of leisure or work, etc.), the concept (city services, supplies, sign posts, etc.), or the specific event it refers to (concerts or sporting events, or problematic situations as breakdowns, traffic jams, accidents, fires), as well as the subject area of the message (politics, economy, quality of life, tourism, sport, social interest…). This analysis is complemented by a sentiment analysis able to detect the polarity of the message (very positive, positive, negative, very negative and neutral).

sensorciudadano2

The aim is to merge the semantic analysis with the user’s geopositioning in order to obtain interesting results on what citizens talk and opine about, in real time, as a city management console. This type of analysis could serve, for example, for early detection of risk situations such as accidents or supply breakdowns on public roads, fights in leisure areas, condition (cleaning, security, services) of public parks or beaches, etc.

For this analysis we use our APIs of language detection (which can process Spanish, English, French, Italian, Portuguese and Catalan), extraction of entities, automatic classification, sentiment analysis and demographic classification of users, all included in Textalytics Core.

sensorciudadano3

At the moment we are researching in temporal analysis, to try to detect the citizens’ tendencies of behavior and opinion throughout the time of analysis. This research consists of comparing the condition of the city at different moments of time to analyze and interpret the differences which will be due either to the daily life of the city (for example, the natural increase of public activity as the morning advances) or unexpected situations that might be predicted.

You can find more information, documentation, and demos on our web page: http://www.daedalus.es/ciudad2020/Sensor_Ciudadano. If you have any questions or comments, please do not hesitate to contact us.

[Translation by Luca de Filippis]

Punto final para los comentarios ofensivos de los lectores en los medios de comunicación online: los medios serán los responsables. Y ahora, ¿qué?

24 octubre, 2013 1 comentario

El Tribunal Europeo de Derechos Humanos, el mismo que acaba de deslegitimar la aplicación retroactiva de la denominada “doctrina Parot”, dictó el pasado día 10 de octubre una sentencia muy relevante para los medios de comunicación europeos.

El caso en cuestión fue interpuesto por la web de noticias estonia Delfi, condenada por la justicia de su país por la publicación de comentarios ofensivos de lectores contra el director de una empresa que actuaba como fuente de una información. La publicación de la noticia en cuestión se produjo el 24 de enero de 2006, y algunas semanas después, el 9 de marzo, los abogados del ofendido solicitaron la retirada de 20 comentarios ofensivos y una indemnización por daños morales. La web de noticias retiró los comentarios el mismo día y rechazó la petición económica. Al mes siguiente, se interponía una demanda judicial civil ante los tribunales estonios. Esta demanda llegó hasta la máxima instancia judicial nacional, que confirmó la culpabilidad y condenó al medio a una indemnización de 320 euros para el demandante.

delfi

La empresa propietaria del portal de noticias, Delfi, recurrió a Estrasburgo (sede del Tribunal Europeo de Derechos Humanos), considerando que la condena vulneraba el principio de libertad de expresión, amparado por el artículo 10 de la Convención para la Protección de los Derechos Humanos y las Libertades Fundamentales.

Ahora, este tribunal europeo ha fallado en contra del medio de comunicación. Y ello a pesar de que Delfi disponía de un sistema automático (rudimentario) para filtrar comentarios que incluyeran algunas palabras clave (insultos u otras palabras problemáticas). Además, Delfi disponía de un mecanismo con el que los propios lectores podían marcar un comentario como inadecuado. La sentencia considera que este filtro era insuficiente para impedir daños contra el honor de terceros y que el medio debió tomar medidas más efectivas para prevenir estas situaciones.

El Tribunal considera razonable responsabilizar al editor, siendo su función publicar informaciones y dar visibilidad a los comentarios de los lectores, y lucrándose por ello a través del tráfico generado por esos comentarios.

Y ahora, ¿qué hacer? En un texto de este mismo blog, titulado “Moderar la participación en los medios“, publicado hace un par de años, resumíamos las dificultades y las claves de nuestro enfoque para ayudar a resolver un problema que no es trivial.

Las dificultades son múltiples. Por un lado, no basta con detectar palabras ofensivas aisladas, sino que es necesario filtrar expresiones, a veces teniendo en cuenta el contexto de la expresión y sus variantes flexivas. Por otro lado, hay que interpretar el lenguaje abreviado o los textos con errores ortotipográficos tan frecuentes en las secciones de participación o en los contenidos generados por usuarios. Estos “errores” pueden derivarse de las limitaciones de los dispositivos, del carácter impulsivo de los comentarios, o de la intención enmascaradora de los propios usuarios que, a sabiendas de la existencia de filtros automáticos, tratan de burlarlos por todos los medios (a veces con mucho ingenio).

Además de este problema relacionado con la Variedad de los textos, encontramos las otras dos características recurrentes en las aplicaciones de “big data” (conformando las famosas 3V): el Volumen de comentarios a tratar y la Velocidad de respuesta requerida.

En Daedalus, venimos abordando estos problemas desde hace años para el sector de los medios, y últimamente también en otros sectores, como el de banca y seguros.

En cuanto a la arquitectura de integración de estas soluciones, en la actualidad las estamos ofreciendo como un servicio en modo SaaS (Software as a Service), desde nuestra plataforma Textalytics de APIs en la nube, además del  tradicional licenciamiento para su ejecución on-premises.

Con los sistemas automáticos, no podemos garantizar un 100% de precisión para cualquier tarea de filtrado. Diferentes empresas o medios, y diferentes secciones dentro de un mismo medio, requieren distintas estrategias. Parece evidente que no tiene sentido aplicar los mismos criterios de filtrado a los comentarios de un sesudo artículo de fondo que a las intervenciones surgidas durante la transmisión en directo de un partido de fútbol o de un reality show. En ese sentido, nuestros sistemas caracterizan la gravedad de la expresión, permitiendo flexibilidad a nuestros clientes para establecer el umbral idóneo para su caso. Por otro lado, proporcionamos herramientas de personalización para facilitar la incorporación de nuevas expresiones problemáticas. Por último, también monitorizamos permanentemente el funcionamiento de estos sistemas para los clientes que lo desean, dentro de sus planes de aseguramiento y mejora continuada de la calidad.

¿Interesado? No dude en ponerse en contacto con Daedalus.

Descubra nuestras soluciones para el sector de medios.

Referencias a este asunto:

José Carlos González

Sensor Ciudadano: El ciudadano como sensor de la ciudad del futuro

Sensor ciudadanoUna de nuestras líneas de trabajo más prometedoras en el proyecto Ciudad2020 (Programa INNPRONTA, financiado por el CDTI) se centra en el concepto que hemos bautizado como Sensor Ciudadano: el registro de eventos en la relación del ciudadano con su municipio.

Mediante la aplicación de las tecnologías semánticas de Textalytics, podemos analizar en detalle la voz del ciudadano, extrayendo información heterogénea de alto nivel, muy descriptiva y de gran valor añadido, que sirve para modelar el comportamiento urbano del ciudadano y su relación con la ciudad del futuro. De esta forma el ciudadano se convierte en un sensor más integrado en la red de sensores de los sistemas de la ciudad.

El Sensor Ciudadano puede registrarse de distintas formas.

  • Teléfono móvil.- Por ejemplo, para detectar contaminación acústica, el usuario podría arrancar una aplicación en su smartphone para registrar el nivel de ruido y enviarlo a los servidores de la ciudad. Este gesto nos dará un mapa de los focos de ruido más destacables de la ciudad, que evoluciona en el tiempo (obras por las mañanas, fiestas los fines de semana…).
  • Eventos del ciudadano.- Por ejemplo, el usuario pica el billete de tren para dirigirse a su trabajo. Esto, agregado a los eventos generados por el resto de usuarios que usen el tren, nos dará una idea de la densidad de viajeros que usan el tren para ir al trabajo cada mañana y qué trayecto hacen.
  • Redes sociales.- Nuestros sistemas pueden analizar el flujo de tweets en un área geográfica para saber de qué hablan los usuarios, y si es algo relevante (un accidente de coche que provoca retenciones, un incendio, un festival de música…) podemos usar estos datos para elaborar un modelo preciso con predicciones mucho más ajustadas. También podemos recopilar la posición u opinión de los ciudadanos respecto a las políticas de la administración local (por ejemplo, disminución del consumo en climatización en transporte público).

Como trabajos preliminares, hemos construido una ontología que define las diferentes dimensiones hacia las que se va a orientar el análisis semántico. Actualmente estamos recogiendo información de Twitter, y en concreto vamos a intentar identificar en cada tweet la ubicación en la que se encuentra el usuario (un edificio público como ayuntamiento u hospital, parques, medio de transporte, lugar de ocio o de trabajo, etc.), el concepto (servicios de la ciudad, suministros, señalización, etc.), o evento específico al que se refiera (conciertos o eventos deportivos, o bien situaciones problemáticas como averías, atascos, accidentes, incendios), así como el área temática del mensaje (sobre economía, política, calidad de vida, turismo, deporte, interés social…). Este análisis se complementa con un análisis de sentimientos para obtener la polaridad del mensaje (muy positiva, positiva, negativa, muy negativa y neutra).

sensorciudadano2

El objetivo es combinar el análisis semántico con la geoposición del usuario para intentar obtener resultados interesantes sobre lo que hablan y opinan los ciudadanos, en tiempo real, a modo de consola de gestión de la ciudad. Este tipo de análisis podría servir, por ejemplo, para detección temprana de situaciones de riesgo como accidentes o averías de suministros en la vía pública, peleas en zonas de ocio, situación (limpieza, seguridad, servicios) de los parques públicos o playas, etc.

Para este análisis usamos nuestras API de detección de idioma (podemos tratar español, inglés, francés, italiano, portugués y catalán), extracción de entidades, clasificación automática, análisis de sentimientos y clasificación demográfica de usuarios, incluidas en Textalytics Core.

sensorciudadano3

Actualmente estamos investigando en el análisis temporal, para intentar detectar tendencias de comportamiento y opinión de los ciudadanos a lo largo del periodo de tiempo de análisis. Este análisis consiste en comparar la situación de la ciudad en diferentes instantes de tiempo para analizar e interpretar las diferencias, que serán debidas bien a la vida cotidiana de la ciudad (por ejemplo, el incremento natural de la actividad ciudadana según avanza la mañana) o bien a situaciones inesperadas que se quieren predecir.

Puede encontrar más información, documentación y demostradores, en nuestro sitio web: http://www.daedalus.es/ciudad2020/Sensor_Ciudadano. Si tiene alguna pregunta o comentario, no dude en contactar con nosotros.

¿Son de fiar las herramientas de monitorización de medios sociales?

Son muchas las voces que destacan la importancia de escuchar qué se comenta en las redes sociales (Rappaport) pero no siempre está claro cómo hacerlo (como trata de explicar Seth Grimes en este artículo). Aunque parezca mentira, existen infinidad de herramientas con ese objetivo; podemos encontrar decenas de listas con las mejores o las más populares pero ¿qué debemos exigir a esas herramientas para asegurarnos de que la información que vamos a obtener es de utilidad? Esta pregunta es importante, porque no son menos los que dudan de la fiabilidad de las métricas sobre SoV en redes sociales (al menos si atendemos a la infinidad de entradas de blog que tratan de convencerlos). Entonces, ¿a quién hacemos caso? ¿Debemos preocuparnos de lo que se comenta en las redes sociales? ¿Nos van a servir de algo esas herramientas? La respuesta a estas dos últimas preguntas es claramente sí, pero debemos tener claros varios aspectos antes de elaborar un plan de escucha en redes sociales y, sobre todo, antes de seleccionar las herramientas con las que vamos a trabajar. Entre esos aspectos debemos contemplar:

Image

¿Qué queremos escuchar?

Evidentemente, no estamos interesados en cualquier cosa. Aunque quisiéramos, sería imposible. Pero sí podemos centrarnos en algún tema: por ejemplo, en nuestra marca, en nuestra empresa, en el calentamiento global, en productos financieros de ahorro, etc. Pero, ¿cómo nos referimos a esos temas? Es decir, ¿cómo le indicamos a una herramienta que nos interesan esos temas? Según la aplicación con la que trabajemos nos tocará a nosotros indicar diferentes formas en las que puede mencionarse el tema que nos interesa en un texto (por ejemplo, “cambio climático”, “efecto invernadero”, “agujero de ozono”) o será la propia aplicación la que nos sugiera términos aproximados. Sería deseable disponer de mecanismos que permitan relacionar unos términos con otros. Para eso se emplean las ontologías u otros recursos semánticos, como pueden ser Wikipedia, Freebase, etc., o puede ser el propio usuario quien indique cómo se relacionan esos términos. En este punto, las capacidades de análisis de texto (text analytics) y, más concretamente, de Procesamiento de Lenguaje Natural, de la herramienta son fundamentales. Debería dar igual si un término aparece en singular o plural (“depósito financiero” vs “depósitos financieros”) o si existe ambigüedad (“Santander” como entidad financiera vs. “Santander” como ciudad). Algo parecido sucede con el tratamiento de los idiomas, ¿cómo se traduce “efecto invernadero” al inglés? ¿Puede dar lugar a un término ambiguo? La explotación de ontologías existentes puede ser de gran ayuda a la hora de enlazar conceptos equivalentes en distintos idiomas.

¿Dónde queremos escuchar?

La respuesta a esta pregunta puede ser simple, “en las redes sociales”, pero ¿nos interesan todas las redes? ¿Tenemos presencia en todas ellas? Aunque no tengamos presencia en una red, ¿es posible que hablen de nosotros allí? Deberíamos plantearnos también si existen blogs que deberíamos monitorizar (que no forman parte de las denominadas “redes sociales”). Las respuestas a estas preguntas dependen, evidentemente, del tipo de empresa o marca que estemos considerando. ¿Es posible que se hable en Facebook de una empresa que fabrica lámparas cuándo no tiene presencia en esa red social?

Desde el punto de vista del análisis de texto, es importante la capacidad de trabajar tanto con texto bien formado, sobre el que se puede realizar un análisis sintáctico completo, como con texto “incorrecto” como el que suele emplearse en los mensajes que se publican en redes sociales. Éste es también un factor importante a la hora de seleccionar una herramienta.

¿En qué idiomas?

Hemos mencionado de pasada el problema de los idiomas, pero es un elemento fundamental. ¿La aplicación para análisis de medios sociales que nos ha llamado la atención cubre los idiomas que nos interesan? Muchas de ellas dicen que sí, pero es necesario verificar con qué nivel de profundidad lo hacen. Sería necesario tener en cuenta aspectos como: cuántas entidades reconocen de las que aparecen en un texto, si las clasifican en el tipo adecuado (persona, lugar, organización), si además de entidades reconocen otras estructuras como URL, hashtags, etc.; si, tratándose de aplicaciones de análisis de sentimiento, tratan negaciones o si pueden asignar polaridad a entidades o atributos.

¿Qué ganamos por escuchar? ¿Podemos medir el resultado de nuestra escucha?

La duda sobre si la inversión que supone escuchar lo que sucede en las redes sociales acaba recuperándose o no es recurrente. ¿Es suficiente con saber cuánta gente retuitea nuestros mensajes o indica que le gusta nuestra página de Facebook? Está claro que no, pero, si pudiésemos plantear la pregunta ¿cuánta gente habla bien de mi producto y cuánta lo critica? y obtener una respuesta fiable, seguramente no dudaríamos tanto. O, incluso, si pudiésemos interactuar con el cliente que ha realizado la crítica más dura. ¿Cuánto vale y cuánto cuesta un cliente satisfecho?

Hoy día, existe tecnología que puede responder a estas preguntas, también para castellano. ¿Qué opinas tú? ¿Confías en la tecnología para hacer el seguimiento de los medios sociales? Si usas alguna herramienta específica, ¿estás contento con ella?

Si quieres más información sobre cómo en Daedalus podemos ayudarte a mejorar es seguimiento que estás haciendo de los medios sociales, ponte en contacto con nosotros.

Grabación del webinar sobre Análisis Semántico de Medios Sociales

Para quien le pueda interesar,

Hemos subido los contenidos (vídeo y presentación) del pasado webinar “Explote al máximo lo que se dice en medios sociales usando tecnologías semánticas” sobre Análisis Semántico de Medios Sociales a esta página.

Esperamos que os sea útil.

Categorías:Medios sociales

Webinar sobre Análisis Semántico de Medios Sociales

En muchos aspectos seguimos analizando los medios sociales como si se tratara de medios tradicionales. Habitualmente, agregamos automáticamente diversas fuentes para detectar menciones y complementamos con análisis manual y basado en muestreos para extraer otros elementos más valiosos (ej.: opiniones). Pero el análisis de medios sociales debe aportar mucho más que un informe agregado y a posteriori sobre presencia y valoración de marca.

Es necesario encontrar una solución que (con los parámetros adecuados de calidad y coste) haga posible extraer todo el valor enterrado en esas conversaciones y, a la vez, dar respuesta a las enormes exigencias de volumen, variedad y velocidad de estos medios.

Las tecnologías semánticas y de procesamiento del lenguaje son capaces de extraer automáticamente el significado de todo tipo de conversaciones sociales, incluso allí donde se usa un lenguaje informal y con errores (caso de Twitter o aplicaciones de mensajería). Las más avanzadas llegan no sólo a descubrir menciones de nuestras marcas y competidores, sino a

  • Analizar opiniones (sentimiento)
  • Evaluar el impacto sobre la reputación corporativa
  • Detectar intenciones de compra o abandono de productos
  • Obtener perfiles demográficos del los usuarios
  • Identificar relaciones, hechos, eventos, etc.

Combinar este análisis automático con la supervisión humana permite alcanzar un compromiso óptimo entre calidad, homogeneidad, volumen y velocidad en el análisis de medios sociales.

Acompáñanos en este webinar gratuito de Daedalus y descubre cómo las tecnologías semánticas pueden ayudarte a explotar al máximo lo que se dice en medios sociales. Más información y registro aquí.

Webinar: Explote al máximo lo que se dice en medios sociales usando tecnologías semánticas

  • Día: Martes, 21 de mayo de 2013
  • Hora inicio: 16:00 hora CET (Madrid)
  • Duración: 45 min.

Registrarme

Esperamos contar con tu asistencia.

Categorías:Medios sociales

New version of Sentimentalytics: our plug-in for the semantic analysis of social media

We´ve just released a new version of Sentimentalytics, our browser plug-in that analyzes on the fly and semantically tags the timelines appearing on social networks and tools. Read more about the project’s origins in this post.

Our aim with Sentimentalytics is to free community managers and agencies from the need to read thousands of irrelevant posts and to allow them to focus on those conversations that deserve special attention because of their meaning.

By simply clicking on the Sentimentalytics button, these pages, timelines, query results, etc. appear dynamically annotated with tags indicating the mentioned entities, the language and the topic of the document as well as the sentiment, both general and associated with each entity.

Screenshot Sentimentalytics

These are some of Sentimentalytics’ benefits:

  • It installs on any standard browser and operates fully integrated into the web interfaces of a variety of social networks and tools (Twitter, Facebook, Google+, TweetDeck, HootSuite and others).
  • It applies semantic and natural language processing technologies to extract meaning and tag timelines. To achieve this, the plug-in uses Daedalus’ semantic technology -deployed in the cloud and accessible via APIs-, capable of analyzing content and its context and to identify ambiguous mentions.
  • Sentimentalytics also features a dashboard that allows to directly navigate to those specific comments mentioning a given entity, dealing with a particular topic or containing opinions of a certain polarity or intensity.
  • Additionally, the tagged content can be exported to a CSV file for treatment with reporting or data analysis tools.
  • Multilingual: It analyzes contents in Spanish, English and French.

Sentimentalytics enables a “management by exception” and in real-time of social media and its standard version is completely free. Learn more in this presentation.

We’d like to take this opportunity to thank the friends (community managers and advanced users) who have contributed their suggestions to the development of the tool during its private beta phase.

And don’t forget to register at Sentimentalytics.com.

Categorías:Medios sociales

Nueva versión de Sentimentalytics, nuestro plug-in para el análisis semántico de medios sociales

Acabamos de publicar una nueva­­­­ versión de Sentimentalytics, nuestro plug-in para navegador que analiza “al vuelo” y etiqueta semánticamente los timelines que aparecen en redes y herramientas sociales. En este post podéis leer sobre los orígenes del proyecto.

Nuestra idea con Sentimentalytics es liberar a community managers y agencias de la necesidad de leer miles de posts irrelevantes y permitirles concentrarse en aquellas conversaciones que merecen una atención especial en virtud de su significado.

Con solo hacer clic sobre el botón de Sentimentalytics, estas páginas, timelines, resultados de consultas, etc. aparecen anotados dinámicamente con etiquetas que indican las entidades que se mencionan, el idioma y el tema del documento, así como el sentimiento tanto general como asociado a cada entidad.

Screenshot Sentimentalytics

Estas son algunas de las ventajas de Sentimentalytics:

  • Se instala en cualquier navegador estándar y funciona totalmente integrado en las interfaces web de una gran variedad de redes y herramientas sociales (Twitter, Facebook, Google+, TweetDeck, HootSuite y otras).
  • Aplica tecnologías semánticas y de procesamiento de lenguaje natural para extraer el significado y etiquetar los timelines. Para ello el plug-in recurre a la tecnología semántica de Daedalus -desplegada en la nube y accesible vía APIs- capaz de analizar los contenidos en su contexto y de identificar menciones ambiguas.
  • Sentimentalytics incorpora también un cuadro de mando que permite navegar directamente a aquellos comentarios específicos donde se menciona a una entidad dada, que tratan de un determinado tema o que contienen opiniones de una cierta polaridad e intensidad.
  • Adicionalmente, permite exportar los contenidos etiquetados a un fichero CSV para su tratamiento con herramientas de reporting o de análisis de datos.
  • Es multiidioma: analiza contenidos en español, inglés y francés.

Sentimentalytics facilita una “gestión por excepción” y en tiempo real de los medios sociales y su uso en versión estándar es completamente gratuito. Tenéis más información en esta presentación.

Queremos aprovechar la ocasión para agradecer a los amigos (community managers y usuarios avanzados) que con sus sugerencias han contribuido al desarrollo de la herramienta durante la anterior fase de beta privada.

No olvidéis registraros gratis en Sentimentalytics.com.

Categorías:Medios sociales
A %d blogueros les gusta esto: