Archivo

Archive for the ‘Soluciones’ Category

Whitepaper: “Pollution Predictive Modeling in the Sustainable City”

Recently we have published the whitepaper “Pollution Predictive Modeling in the Sustainable City“, which describes in detail the approach and methodology that we have adopted within the framework of the Ciudad2020 project to perform predictive modeling of environmental pollution levels in the city of the future. Given that the starting point of the analysis is made up of the immense volume of data collected by the network of sensors deployed around the city, both physical sensors and the citizen sensor, this modeling is addressed as a data mining project (data analytics). Therefore, the methodology, techniques and algorithms typical of data mining have been used to process and exploit the information.

crispdmThe term KDD (Knowledge Discovery in Databases) was coined to refer to the (broad) concept of finding knowledge in data and to emphasize the high level application of certain data mining processes. In an attempt at normalizing this process of knowledge discovering, similarly to what it is done in software engineering for standardizing software development, two main methodologies were taken into account: SEMMA and CRISP-DM. Both fix the tasks to perform in each phase described by KDD, assigning specific tasks and defining the expected outcome for each phase. In (Azevedo, A. and Santos, M. F. KDD, SEMMA and CRISP-DM: a parallel overview. In Proceedings of the IADIS European Conference on Data Mining 2008, pp 182-185.), both implementations are compared and the conclusion is that, although you can draw a parallel between them, CRISP-DM is more complete. In fact, it takes into account also the application of outcomes to the business environment, and, for this reason, it has been adopted for modeling in Ciudad2020.

By collecting different documentary references, the whitepaper presents a detailed description of the CRISP-DM methodology, its objectives, essential phases and tasks. Then, it focuses on describing thoroughly the two application scenarios that have been considered in Ciudad2020 and the pollution modeling process carried out following this methodology: air pollution prediction in the city of Santander (Cantabria, Spain) and noise pollution prediction in the city of Madrid (Spain).

SERENA project (Spanish acronym for Neural Network Statistical Prediction System for Madrid’s Air Quality)

You can find the whitepaper, further information, more documentation and demos on our web page: http://www.daedalus.es/ciudad2020/. If you have any questions or comments, please do not hesitate to contact us, we will be happy to assist you.

[Translation by Luca de Filippis]

Whitepaper: “Técnicas de modelado predictivo de la contaminación en la ciudad sostenible”

crispdmRecientemente hemos publicado el whitepaper “Modelado predictivo de la contaminación en la ciudad sostenible” que describe en detalle el enfoque y la metodología que hemos adoptado en el marco del proyecto Ciudad2020 para llevar a cabo el modelado predictivo de los niveles de contaminación medioambiental de la ciudad del futuro. Dado que el punto de partida del análisis está constituido por el inmenso volumen de datos recogidos por la red de sensores desplegada por la ciudad, tanto sensores físicos como el sensor ciudadano, este modelado se aborda como un proyecto de minería de datos (data analytics), y por tanto se han utilizado la metodología, técnicas y algoritmos típicos de minería de datos para tratar la información.

El término KDD (Knowledge Discovery in Databases) se acuñó para referirse al (amplio) concepto de hallar conocimiento en los datos, y para enfatizar la aplicación de alto nivel de determinados procesos de minería de datos. En un intento de normalización de este proceso de descubrimiento de conocimiento, de forma similar a como se hace en ingeniería software para normalizar el proceso de desarrollo software, surgieron dos metodologías principales: SEMMA y CRISP-DM. Ambas especifican las tareas a realizar en cada fase descrita por KDD, asignando tareas concretas y definiendo lo que es deseable obtener tras cada fase. En (Azevedo, A. and Santos, M. F. KDD, SEMMA and CRISP-DM: a parallel overview. In Proceedings of the IADIS European Conference on Data Mining 2008, pp 182-185.), se comparan ambas implementaciones y llega a la conclusión de que, aunque se puede establecer un paralelismo claro entre ellas, CRISP-DM es más completo porque tiene en cuenta la aplicación al entorno de negocio de los resultados, y por ello es la que se ha adoptado en el modelado en Ciudad2020.

El whitepaper, recopilando diferentes referencias documentales, presenta una detallada descripción de la metodología CRISP-DM, sus objetivos, fases de las que consta y tareas contenidas en cada fase. a continuación, se centra en describir en profundidad los dos escenarios de aplicación que se han utilizado en Ciudad2020 y el proceso de modelado de contaminación realizado siguiendo obviamente dicha metodología: predicción de la contaminación atmosférica en la ciudad de Santander (Cantabria, España) y predicción de la contaminación acústica en la ciudad de Madrid (Comunidad de Madrid, España).

calidadairemadrid

SERENA (Sistema Estadístico de predicción por REdes Neuronales de la calidad del Aire en la ciudad de Madrid)

Puede encontrar el whitepaper, información adicional, más documentación y demostradores, en nuestro sitio web: http://www.daedalus.es/ciudad2020/. O si tiene alguna pregunta o comentario, no dude en contactar con nosotros… estaremos encantados de atenderle.

Sensor Ciudadano: El ciudadano como sensor de la ciudad del futuro

Sensor ciudadanoUna de nuestras líneas de trabajo más prometedoras en el proyecto Ciudad2020 (Programa INNPRONTA, financiado por el CDTI) se centra en el concepto que hemos bautizado como Sensor Ciudadano: el registro de eventos en la relación del ciudadano con su municipio.

Mediante la aplicación de las tecnologías semánticas de Textalytics, podemos analizar en detalle la voz del ciudadano, extrayendo información heterogénea de alto nivel, muy descriptiva y de gran valor añadido, que sirve para modelar el comportamiento urbano del ciudadano y su relación con la ciudad del futuro. De esta forma el ciudadano se convierte en un sensor más integrado en la red de sensores de los sistemas de la ciudad.

El Sensor Ciudadano puede registrarse de distintas formas.

  • Teléfono móvil.- Por ejemplo, para detectar contaminación acústica, el usuario podría arrancar una aplicación en su smartphone para registrar el nivel de ruido y enviarlo a los servidores de la ciudad. Este gesto nos dará un mapa de los focos de ruido más destacables de la ciudad, que evoluciona en el tiempo (obras por las mañanas, fiestas los fines de semana…).
  • Eventos del ciudadano.- Por ejemplo, el usuario pica el billete de tren para dirigirse a su trabajo. Esto, agregado a los eventos generados por el resto de usuarios que usen el tren, nos dará una idea de la densidad de viajeros que usan el tren para ir al trabajo cada mañana y qué trayecto hacen.
  • Redes sociales.- Nuestros sistemas pueden analizar el flujo de tweets en un área geográfica para saber de qué hablan los usuarios, y si es algo relevante (un accidente de coche que provoca retenciones, un incendio, un festival de música…) podemos usar estos datos para elaborar un modelo preciso con predicciones mucho más ajustadas. También podemos recopilar la posición u opinión de los ciudadanos respecto a las políticas de la administración local (por ejemplo, disminución del consumo en climatización en transporte público).

Como trabajos preliminares, hemos construido una ontología que define las diferentes dimensiones hacia las que se va a orientar el análisis semántico. Actualmente estamos recogiendo información de Twitter, y en concreto vamos a intentar identificar en cada tweet la ubicación en la que se encuentra el usuario (un edificio público como ayuntamiento u hospital, parques, medio de transporte, lugar de ocio o de trabajo, etc.), el concepto (servicios de la ciudad, suministros, señalización, etc.), o evento específico al que se refiera (conciertos o eventos deportivos, o bien situaciones problemáticas como averías, atascos, accidentes, incendios), así como el área temática del mensaje (sobre economía, política, calidad de vida, turismo, deporte, interés social…). Este análisis se complementa con un análisis de sentimientos para obtener la polaridad del mensaje (muy positiva, positiva, negativa, muy negativa y neutra).

sensorciudadano2

El objetivo es combinar el análisis semántico con la geoposición del usuario para intentar obtener resultados interesantes sobre lo que hablan y opinan los ciudadanos, en tiempo real, a modo de consola de gestión de la ciudad. Este tipo de análisis podría servir, por ejemplo, para detección temprana de situaciones de riesgo como accidentes o averías de suministros en la vía pública, peleas en zonas de ocio, situación (limpieza, seguridad, servicios) de los parques públicos o playas, etc.

Para este análisis usamos nuestras API de detección de idioma (podemos tratar español, inglés, francés, italiano, portugués y catalán), extracción de entidades, clasificación automática, análisis de sentimientos y clasificación demográfica de usuarios, incluidas en Textalytics Core.

sensorciudadano3

Actualmente estamos investigando en el análisis temporal, para intentar detectar tendencias de comportamiento y opinión de los ciudadanos a lo largo del periodo de tiempo de análisis. Este análisis consiste en comparar la situación de la ciudad en diferentes instantes de tiempo para analizar e interpretar las diferencias, que serán debidas bien a la vida cotidiana de la ciudad (por ejemplo, el incremento natural de la actividad ciudadana según avanza la mañana) o bien a situaciones inesperadas que se quieren predecir.

Puede encontrar más información, documentación y demostradores, en nuestro sitio web: http://www.daedalus.es/ciudad2020/Sensor_Ciudadano. Si tiene alguna pregunta o comentario, no dude en contactar con nosotros.

The future of Semantic APIs

Business models based on in the cloud APIs (Application Programming Interfaces) are undoubtedly an excellent choice for the commercialization of semantic technologies. In Daedalus we have been experimenting with these models for some time, both directly in the B2B market with some early adopters and indirectly, developing on top of our APIs our own products for the B2C market: Stilus (text proofreading) and Sentimentalytics (sentiment analysis).

What we have learned is that basic language functionality is hard to use for many developers who are not expert in these technologies, and that this fact requires them to build solutions through a process of trial and error in a do-it-yourself fashion, which is slow and inefficient. The market demands APIs with a more plug-and-play philosophy, which provide functionalities that are closer to the business, a faster learning curve and, as a result, increased productivity.

Textalytics Meaning-as-a-Service

This is the reason why we have developed Textalytics, a new generation of semantic technologies in SaaS mode. As a provider, our idea is to deal with the technical details and provide developers with an offering that features high level functionality optimized for each application, process pipelines and linguistic resources preconfigured for various scenarios, SDKs and plug-ins that foster use and integration, and user communities to share good practices, among other features.

This was the content of our presentation at the recent API Days Mediterranea held in Madrid. You can access it here (recording of June 1, from minute 5:41:30) and the slides here.

Regarding Textalytics, we hope to give more details in the next LT-Innovate Summit 2013, to be held in Brussels (Belgium) on  June 26 and 27. Stay tuned.

Categorías:API, Eventos, Soluciones

El futuro de las API Semánticas

Sin duda los modelos de negocio basados en API (Interfaces de Programación de Aplicaciones) en la nube son una excelente alternativa para la comercialización de las tecnologías semánticas. En Daedalus llevamos algún tiempo experimentando con estos modelos, tanto directamente en el mercado B2B con algunos early adopters como indirectamente, desarrollando sobre nuestras API producto propio para el mercado B2C: Stilus (revisión de texto), Sentimentalytics (análisis de sentimiento).

Lo que hemos aprendido es que las funcionalidades lingüísticas básicas son difíciles de usar para muchos desarrolladores, no expertos en estas tecnologías, y que eso les obliga a construir soluciones mediante un proceso de prueba y error tipo hágaselo usted mismo, que es lento e ineficiente. El mercado demanda unas API con una filosofía más plug-and-play, que proporcionen una funcionalidad más cercana al negocio, una curva de aprendizaje más rápida y, como resultado, una mayor productividad.

Textalytics Meaning-as-a-Service

Por eso hemos desarrollado Textalytics, una nueva generación de tecnologías semánticas en modo SaaS. Nuestra idea como proveedor es ocuparnos de los detalles técnicos y proporcionar a los desarrolladores una oferta que incluya funciones de alto nivel optimizadas para cada aplicación, pipelines de proceso y recursos lingüísticos preconfigurados para diversos escenarios, SDK y plug-ins que fomenten el uso y la integración y una comunidad de usuarios para compartir buenas prácticas, entre otras características.

Este ha sido el contenido de nuestra presentación en el reciente API Days Mediterranea celebrado en Madrid. Podéis acceder a nuestra intervención aquí (grabación del día 1 de junio, a partir de minuto 5:41:30) y a las transparencias aquí.

En cuanto a Textalytics, esperamos dar más detalles en el próximo LT-Innovate Summit  2013 (foro europeo de la industria del lenguaje), a celebrar en Bruselas (Bélgica) los próximos 26 y 27 de junio. Seguid sintonizados.

Categorías:API, Eventos, Soluciones

Semantic technologies for the publishing and media industry

An industry under disruption

The mass media, publishing companies and other content generators are being forced to reinvent themselves. Market demands, recent habits in information consumption, and technological innovation force providers to:

  • Create new information products which are more valuable and differentiated, by adding value using contents from other sources, customizing for the user, and enabling new ways of interaction and consumption.
  • Work efficiently and as fast as possible, by easily integrating new content, recycling and repackaging existing content, and producing contents faster and at a lower cost.
  • Take advantage of disruptive trends in discovering, consuming and sharing content: social media, mobile.
  • Discover new ways of doing business: distribution, syndication, targeted advertising.

The new Semantic Publishing

Semantic technology allows computers to “understand” the structure and meaning of digital contents, making easier its retrieval, integration, creation and publishing. These applications of the technology are becoming known as “semantic publishing”. Some big players in this industry are breaking new ground with revolutionary projects and initiatives:

  • The BBC began to work in this field for the football World Cup in 2010. Its dynamic semantic publishing uses linked data technology to automate the aggregation, publishing and re-purposing of interrelated content objects according to an ontological domain-modelled information architecture. The idea has been materialized into the new BBC’s sport website and the media coverage of this year’s Olympic Games.
  • Major newspapers such as The Guardian and The New York Times are now open to new ways of working with advertisers, content syndicators and users. They provide now contents and services through semantic APIs (The New York Times Developer Network, The Guardian Open Platform). As a result, new business models are made possible: from providing free access to news headlines (not text body), which are annotated and enriched with metadata, to selling full and non-restricted multimedia news content, or offering full text free of charge but including advertisements.

Applying semantic technologies across the value chain

Since its inception, Daedalus has been working with the most important companies in the media industry: PRISA, Unidad Editorial, Vocento… Our semantic technology offers proven solutions for the entire value chain of the industry:

  • As for content acquisition and archive management, our technology allows for tagging and enriching contents automatically (e.g. detection of entities, concepts, topics or categories). They can be interlinked according to their meaning, enabling the discovery, retrieval, navigation and exploitation of information.
  • As for content production, our technology improves the repurposing of existing content, the textual revision and standardization of new content and the linkage and enrichment with related content, reducing costs and enhancing quality (grammatical correctness, consistency, references).
  • As for content publishing and selling, it adds value by relating information, modularizing the offering, packaging customized content and improving the discovery, navigation and interaction with contents.
  • As for community and user-generated content management, it allows for identifying topics, trends, opinions, or detecting valuable or inappropriate content.
  • It opens new possibilities for monetization, allowing to define offerings for different segments, enabling  syndication through new channels, and optimize targeted advertising (both contextual and based on intent).

Thanks to the new technologies, the media industry will evolve towards a disaggregation of the value chain, in which content generators, distributors and syndicators will collaborate in a new value system able to provide customers with more customized and higher quality products.

Would you like to know how Semantic and Language Processing technologies allow you to enhance quality and efficiency in the production of multimedia content? Visit the Daedalus website and discover how we are helping traditional and digital media companies.]

Tecnologías semánticas para el sector editorial y de medios

10 septiembre, 2012 2 comentarios

Un sector en plena disrupción

Medios de comunicación, editoriales y otros generadores de contenidos se están viendo forzados a reinventarse. Las exigencias del mercado, los nuevos hábitos de consumo de la información y la innovación tecnológica están obligando a los proveedores a:

  • Crear nuevos productos de información más valiosos y diferenciados: añadiendo valor con contenidos de otras fuentes, personalizando para el usuario y habilitando nuevas formas de interacción y consumo.
  • Operar de la manera más eficiente y rápida posible: integrando nuevos contenidos fácilmente, reutilizando y reempaquetando contenido existente y produciendo con mayor velocidad y menor coste.
  • Aprovechar tendencias disruptivas en descubrimiento, consumo y compartición de contenidos: medios sociales, móvil.
  • Descubrir nuevas formas de hacer negocio: distribución, sindicación, publicidad enfocada.

La nueva Publicación Semántica

La tecnología semántica proporciona a los ordenadores la capacidad de “entender” la estructura y el significado de los contenidos digitales, haciendo más fácil su búsqueda, integración, generación y publicación. Estas aplicaciones de la tecnología empiezan a conocerse como “publicación semántica” y algunos grandes grupos en este sector están mostrando el camino con proyectos e iniciativas revolucionarios:

  • Coincidiendo con el campeonato del mundo de fútbol de 2010, la BBC inició sus experiencias en este campo. Su publicación semántica dinámica usa tecnología de linked data para automatizar la agregación, la publicación y la reutilización de objetos de contenido interrelacionados según una ontología. Esta iniciativa cristalizó posteriormente en su nuevo sitio de deportes y en la cobertura de los recientes Juegos Olímpicos de 2012.
  • Grandes periódicos como The New York Times o The Guardian se han abierto a nuevos modos de colaboración con anunciantes, sindicadores de contenidos y usuarios, ofreciendo sus contenidos y servicios a través de APIs semánticas (The New York Times Developer Network, The Guardian Open Platform). De este modo pueden monetizar sus contenidos mediante nuevos modelos de negocio: desde el acceso libre a los titulares (no al cuerpo) de noticias -etiquetados y enriquecidos con metadatos-, a la venta de noticias multimedia completas y sin restricciones, pasando por el suministro gratuito de noticias completas pero con publicidad insertada en origen.

Aplicando tecnologías semánticas en toda la cadena de valor

Desde su fundación Daedalus ha colaborado con las empresas más importantes del sector de medios: PRISA, Unidad Editorial, Vocento… Nuestra tecnología semántica permite aportar soluciones contrastadas para toda la cadena de valor del sector:

  • En adquisición de contenidos y gestión del archivo/histórico, nuestra tecnología permite etiquetar y enriquecer automáticamente contenidos (detectando entidades, conceptos, temas, categorías, etc.) y conectarlos en función de su significado, facilitando el descubrimiento, la recuperación, la navegación y la explotación.
  • En producción de contenidos, facilita la reutilización de material, la corrección y estandarización de nuevos contenidos y la conexión y el enriquecimiento con contenidos relacionados, reduciendo costes y aumentando la calidad (corrección, homogeneidad, referencias).
  • En publicación y venta de contenidos, permite añadir valor a los contenidos mediante información relacionada, modularizar la oferta y empaquetar contenidos personalizados y facilitar el descubrimiento, la navegación y la interacción con los contenidos.
  • En gestión de la comunidad y del contenido generado por los usuarios, permite identificar temas, tendencias, opiniones y detectar contenidos valiosos o inapropiados.
  • Abre nuevas posibilidades de monetización, permitiendo definir ofertas para diferentes segmentos, facilitando la sindicación a través de nuevos canales y optimizando la publicidad enfocada (tanto contextual como basada en la intención).

Las nuevas tecnologías van a permitir al sector de medios evolucionar hacia una desagregación de la cadena, en la que generadores, distribuidores y sindicadores de contenidos colaboren en un nuevo sistema de valor capaz de proporcionar a los clientes productos más personalizados y de mayor calidad.

[¿Quieres saber cómo las tecnologías Semánticas y de Procesamiento del Lenguaje permiten aumentar la calidad y la eficiencia en la producción de contenidos multimedia? Visita el sitio web de Daedalus y descubre cómo estamos ayudando a las empresas de medios de comunicación tradicionales y digitales.]

Hazte global, hazte multilingüe, hazlo con Flavius!

3 septiembre, 2012 Deja un comentario

Cada día hay más información que se publica y comparte a través de internet, pero no siempre está disponible en la lengua que maneja un usuario. Aun contando con herramientas de traducción automática, el lenguaje sigue siendo la principal barrera ya que hay muchas personas que únicamente acceden a la información en su propio idioma. Hoy día existen opciones para acceder a contenidos en otros idiomas, sin embargo todos requieren el uso de escenarios y configuraciones particulares y por tanto no tienen un uso extendido. Existen herramientas que permiten a los visitantes de los sitios web sugerir traducciones, aunque estas herramientas no disponen de todas las características necesarias, no son personalizables y tampoco mantienen la estructura original de la página. Además, como las páginas web solo se indexan en la lengua original, son invisibles de cara a las búsquedas que se hacen en otros idiomas.

Flavius es la primera solución extremo a extremo para la traducción y el indexado de sitios web. Se trata de un proyecto Europeo financiado por el Programa de Apoyo a las Tecnologías de la Información y la Comunicación (ICT Policy Support Programme), en el contexto de la Web Multilingüe y las técnicas, herramientas y procedimientos relacionados con la gestión de contenidos.

Flavius le permite crear versiones multilingües de sus sitios web y sus aplicaciones en unos minutos, proporcionando además herramientas fáciles de utilizar para mejorar y revisar la traducción gracias a sus opciones de configuración.

  Flavius permite traducir cualquier archivo de datos (aplicaciones y blogs, XML y sus declinaciones: ReSX, WordPress …) o sitios web. El contenido de los sitios web se extrae realizando una copia idéntica para posteriormente ser traducida por Flavius.

  Para realizar una buena traducción es importante asegurar la calidad del texto de origen, para ello, Flavius incluye un corrector ortográfico y gramatical que detecta posibles errores y le invita a corregirlos. En este contexto Daedalus proporciona su experiencia en el campo de la corrección de textos, así como sus productos disponibles para ese fin.

  En pocos segundos, Flavius realiza una primera traducción que podrá revisar manualmente. Flavius incluye algunos motores personalizados para mejorar la calidad de la traducción, por ejemplo, para traducciónes Francés-Inglés, usted puede optar por traducir una página web sobre viajes utilizando el diccionario correspondiente a dicho tema. La calidad de la traducción aumentará, reduciendo el número de revisiones necesarias para alcanzar una traducción de buena calidad.

  A continuación, puede revisar y modificar la traducción. Accediendo a la vista previa de su sitio web traducido podrá seleccionar una “etiqueta” o un párrafo para editarlo, o si lo prefiere, puede invitar a un revisor. Adicionalmente Flavius implementa un módulo de retroalimentación que le permite obtener opiniones de los usuarios de su sitio web (obtendrá propuestas para mejorar la traducción, opiniones sobre los problemas de diseño y comentarios variados)

  Para garantizar la correcta traducción de expresiones y términos clave, Flavius permite crear un diccionario al que añadir sus palabras clave y su traducción. Además, los cambios realizados durante la etapa de revisión se mantienen y reutilizada durante las actualizaciones de su sitio web traducido, gracias a la función de memoria de traducción. Además, si usted ya tiene memorias de traducción en formato TMX, puede importarlos a Flavius y utilizarlos.

  Su sitio web está listo, traducido en nuestros servidores. Ahora sólo hay que ponerlo a disposición de todos los usuarios de Internet mediante la publicación a través de la plataforma.

  Los sitios web traducidos por Flavius se optimizan para asegurar una correcta indexación. Así, cuando un usuario de Internet realice una búsqueda mediante palabras clave en un idioma extranjero, su buscador habitual devolverá como resultado las páginas traducidas por Flavius.

La plataforma Flavius ya está disponible permitiendo hacer uso de todas las funcionalidades descritas, así que no lo dudes y crea tu cuenta gratuita para comprobar los beneficios de la traducción Flavius.

El consorcio que desarrolla este proyecto lo forman Softissimo (como empresa líder), Across, Language Weaver y Daedalus. Adicionalmente, varios proveedores de contenido participan en el proyecto (TVTrip, Overblog, Qype) aportando no solo la información de la que disponen sino también contribuyendo al lanzamiento de la plataforma a través de sus sitios web.

Sentimentalytics: expanding the market for social media analysis

The analysis of social media is fertile ground for semantic technologies. The ability to automatically process all types of social conversations searching for mentions, opinions or intentions provides community managers, agencies and companies with the opportunity to address problems of volume, variety and velocity related to information in social media.

In Daedalus, we have been working hard to improve language processing in social media by incorporating semantic knowledge and optimizing it to address the peculiarities of Twitter, chats and so on. Our customers are suppliers of tools and services for monitoring/analizing social (and traditional) media, owners of social media, and content generators.

This market activity confirms that there are some gaps in the current sector of social media analysis in Spanish, which is reflected in our initial interviews and surveys to stakeholders:

  • Fragmented supply of tools: a multitude of free/pay, general/niche, local/ multinational products and services exist, with a wide dispersion in performance and price.
  • Limited implementation of automatic text analysis technologies (many foreign suppliers often lack that functionality in Spanish) that limits the capabilities in terms of exhaustive (not sample-based) and real-time processing of social conversations.
  • End-user demand (consumers of information) which reflects the typical dichotomy between large companies (there are only a few, and they have incorporated social media management in their activity) and Spanish SMEs (small-sized companies which are in the majority, and reluctant to innovation).

The Sentimentalytics concept

In this context, we in Daedalus considered developing some kind of tool that would serve to stimulate the market for social media analysis and to disseminate and popularize the application of semantic technologies withing this market. The tool protagonist in this “disruption experiment” should have the following characteristics:

  • Target a currently “under-served” market segment: small agencies, community managers of SMEs, users interested in their personal brand…
  • Be easy to install, learn and use; and compatible with present tools and practices.
  • Be “good enough” in relation to some of the performance parameters that are standard in the market: social media to deal with, presentation of results…
  • Offer a different and improved value proposition in relationship to some other parameters: work in real time, not to impose a sampling of messages to be treated, perform advanced automatic processing (eg.: detection of mentions that are ambiguous or in error, sentiment analysis, subject classification …) in Spanish and other languages
  • Respect the business of our clients (suppliers of analytical tools that use our semantic APIs)

The result is called Sentimentalytics. Technically it is a plugin that runs on any standard browser and works in a non-intrusive way, integrated into the most popular social media and monitoring/managemet tools (eg.: Twitter, HootSuite …).

Sentimentalytics applies semantic technologies to automatically scan (and tag) the tweets, posts, and news shown on the different timelines, channels, etc. appearing in the user browser and to identify (and navigate) to those who deserve special attention. The plug-in communicates with our REST APIs deployed on the Amazon cloud, which is where the semantic processing takes place (Sentimentalytics is our own customer and an excellent touchstone for our technology).

Sentimentalytics screenshot

What Sentimentalytics is NOT

Before going into Sentimentalytics and what it is useful for, it is interesting to clarify what it is not: Sentimentalytics is NOT (or aspires to be) an end-to-end social media monitoring / analysis tool. Providing such tools is the business of specialized suppliers (some of them are our customers ;- ), which can use the Daedalus APIs to analyze and enrich social media contents.

What is Sentimentalytics good for

Sentimentalytics is a utility that allows the management “by exception” of social (and traditional) media: social networks, blogs, microblogs, news sites.

Tagging using entities / polarities / categories and the filtering and navigation possibilities allow us to identify those expressions, opinions and topics that deserve individual treatment, for example: relevant mentions / topics, crisis potential…

Sentimentalytics tagging

This will free Community Managers and Agencies from the routine and thorough reading of irrelevant posts, enabling real-time response.

Sentimentalytics Dashboard

In social media monitoring, Sentimentalytics enables you to focus on what really matters.

Please find more information in this presentation.

Our roadmap

Sentimentalytics is being currently co-developed and evaluated together with a reduced set of representative users. In the coming weeks we will be adding features and new social media and languages to the currently supported.

We hope to start a private beta in September. If you want to participate, register at http://sentimentalytics.com to receive an invitation from us.

Sentimentalytics: expandiendo el mercado de análisis de medios sociales

El análisis de medios sociales es terreno abonado para las tecnologías semánticas. La posibilidad de procesar automáticamente todo tipo de conversaciones sociales en busca de menciones, opiniones o intenciones proporciona a Community Managers, Agencias y empresas la posibilidad de tratar los problemas de volumen, variedad y velocidad de la información en medios sociales.

En Daedalus hemos dedicado mucho esfuerzo a mejorar el procesamiento del lenguaje en medios sociales, incorporando conocimiento semántico y optimizándolo para tratar las peculiaridades de Twitter, chats, etc. Nuestros clientes están tanto en el sector de proveedores de herramientas y servicios de monitorización/análisis de medios sociales (y tradicionales) como en el de propietarios de medios sociales y generadores de contenidos.

Esta actividad en el mercado nos ha permitido confirmar algunas carencias en el sector actual de análisis de medios sociales en español, algo que habíamos detectado mediante nuestras entrevistas y encuestas iniciales a agentes del sector:

  • Atomización de la oferta de herramientas: multitud de productos y servicios gratis/de pago, generalistas/de nicho, locales/multinacionales, con una gran dispersión en cuanto a prestaciones y precios
  • Escasa aplicación de las tecnologías de análisis automático de texto (muchos proveedores extranjeros suelen carecer de esa funcionalidad en español) que limita las capacidades en cuanto a tratamiento exhaustivo (no basado en muestreo) y en tiempo real de las conversaciones sociales
  • Demanda final -consumidores de la información- que refleja la dicotomía típica entre la gran empresa (poco numerosa, ha incorporado la gestión de medios sociales como parte de su actividad) y la PYME española (mayoritaria, muy pequeña y escasamente propensa a adoptar la innovación).

El concepto Sentimentalytics

En ese contexto, en Daedalus nos planteamos construir algún tipo de herramienta que sirviera para estimular el mercado de análisis de medios sociales y difundir y popularizar la aplicación en él de las tecnologías semánticas. La herramienta protagonista de este “experimento de disrupción” debería poseer las siguientes características:

  • Dirigirse a un segmento de mercado actualmente ”infraservido”: pequeñas agencias, community managers de PYME, usuarios interesados en su marca personal…
  • Ser fácil de instalar, aprender y usar y compatible con las herramientas y prácticas actuales
  • Ser “suficientemente buena” en relación con algunos de los parámetros de prestaciones estándar en el mercado: medios sociales a tratar, presentación de resultados…
  • Plantear una propuesta de valor diferente y mejorada en otros parámetros: funcionar en tiempo real, no imponer un muestreo de los mensajes a tratar, realizar un procesamiento automático avanzado (p. ej.: detección de menciones ambiguas o con errores, análisis de sentimiento, clasificación temática…) en español y otros idiomas
  • Respetar el negocio de nuestros clientes (proveedores de herramientas de análisis que usan nuestras APIs semánticas)

El resultado se llama Sentimentalytics. Técnicamente consiste en un plugin para browser que corre en cualquier navegador estándar y trabaja de manera no intrusiva, integrado en los medios sociales y herramientas de monitorización/gestión más populares (p. ej.: Twitter, HootSuite…).

Sentimentalytics aplica tecnologías semánticas para escanear -y etiquetar- automáticamente los tweets, posts, y noticias mostrados en los diferentes timelines, canales, etc. que aparecen en el navegador de usuario y permite identificar (y navegar) a aquellos que merecen una atención especial. El plugin se comunica con nuestras APIs REST desplegadas en la nube de Amazon, que es donde se realiza el procesamiento semántico (Sentimentalytics es nuestro propio cliente y una excelente piedra de toque para nuestra tecnología).

Sentimentalytics screenshot

Qué NO es Sentimentalytics

Antes de avanzar en qué es y para qué sirve Sentimentalytics resulta útil aclarar qué no es: Sentimentalytics NO es (ni aspira a ser) una herramienta end-to-end de monitorización/análisis de medios sociales al uso. El proporcionar ese tipo de herramientas es el negocio de los proveedores especializados (algunos, clientes nuestros ; -), que pueden usar las APIs de Daedalus para analizar y enriquecer los contenidos de medios sociales.

Para qué sirve Sentimentalytics

Sentimentalytics es una utilidad que permite realizar una gestión “por excepción” de los medios sociales (y tradicionales): redes sociales, blogs, microblogs, sitios de noticias.

El etiquetado con entidades/polaridades/categorías y las posibilidades de filtrado y navegación permiten identificar aquellas menciones, opiniones y temas que merecen un tratamiento individual, p. ej.: menciones/temas relevantes, potencial de crisis…

Sentimentalytics tagging

De este modo se libera a Community Managers y Agencias de la lectura rutinaria y exhaustiva de posts irrelevantes y se habilita la respuesta en tiempo real.

Sentimentalytics Dashboard

En la monitorización de medios sociales, Sentimentalytics facilita centrarse en lo que realmente importa.

Más información sobre Sentimentalytics en esta presentación.

Nuestro roadmap

Actualmente Sentimentalytics está en codesarrollo y evaluación con un conjunto reducido de usuarios representativos. Durante las próximas semanas iremos añadiendo prestaciones y nuevos medios sociales e idiomas sobre los actualmente soportados.

En septiembre esperamos abrir una beta privada. Si quieres participar y que te enviemos una invitación regístrate en http://sentimentalytics.com.

A %d blogueros les gusta esto: