Projects

 

Research  

 

Projects   

The Grupo de Tratamiento de Imágenes works on multiple international and Spanish projects. It always collaborates and participates with companies and institutions in the telecommunications sector.

 
Financiación:
 
Ministerio de Economía y Competitividad, dentro del Plan Estatal de Investigación Científica y Técnica y de Innovación 2013-2016, Programa Estatal de Investigación, Desarrollo e Innovación orientada a los Retos de la Sociedad, Retos-Colaboración 2015 (RTC-2015-4133-7); y Fondo Europeo de Desarrollo Regional (FEDER) en su Convocatoria 2015.
 
Descripción:
 
El objetivo del proyecto es el diseño, implementación y calibrado de un sistema de monitorización de calidad de experiencia (QoE) aplicable a servicios de distribución de vídeo segmentado en tiempo real, construyendo una solución tecnológica completa que pueda desplegarse en la próxima generación de servicios de distribución de vídeo por redes IP.
 
Se pretende diseñar un sistema que pueda monitorizar de forma efectiva el escenario emergente de acceso OTT (Over The Top) a contenidos de alta calidad. La principal característica técnica de este escenario es el manejo del vídeo segmentado en fragmentos de unos pocos segundos de duración, para poder adaptarse mejor a la calidad variable de medios OTT, empleando típicamente tecnologías de distribución HAS (HTTP Adaptive Streaming).
 

Participantes:

Alcatel-Lucent España, S.A.; Universidad Politécnica de Madrid.

Duración:

01-septiembre-2015 a 31-diciembre-2018

 

 

 
Financiación:
 
The Centro para el Desarrollo Tecnológico Industrial (CDTI) under the program "Proyectos de I+D Individuales".
 
Descripción:
 
The main objective of this project is the development of a platform capable of transforming the multimedia content in real time to the new adaptive streaming formats: HTTP Adaptive Streaming format (HLS) developed by Apple, Smooth Streaming format (MSS) released by Microsoft and the format defined by the international standard MPEG-DASH.
 
This platform will be able to ingest a content at a specific format. It will make the necessary transformations of the original media content and its associated metadata file in real-time with the aim of providing a video service for a wide range of user’s devices in a Content Distribution Network (CDN). Therefore, the project TRANVIDEOADAP proposes an alternative solution for entertainment TV using an architecture based on the cloud.
 

Participantes:

Nokia (former Alcatel-Lucent España, S.A.); Universidad Politécnica de Madrid.

Duración:

01-julio-2015 a 31-julio-2017

 

 
Financiación:
 
Ministerio de Economía y Competitividad, dentro del Plan Estatal de Investigación Científica y Técnica y de Innovación 2013-2016, Programa Estatal de Investigación, Desarrollo e Innovación orientada a los Retos de la Sociedad, Retos-Colaboración 2015 (RTC-2015-3527-1).
 
Descripción:
 
BEGISE tiene como objetivo general incorporar las tecnologías relativas al Video Content Analysis para proporcionar la capacidad de analizar e interpretar las escenas típicas al escenario de escaleras mecánicas en un contexto de aplicaciones de vigilancia. Para ello, se pretende desarrollar una plataforma que disponga de unidades de procesamiento dispuestas remotamente en las estaciones, y que aplicando tecnologías de visión artificial e inteligencia artificial genere alarmas en tiempo real en el momento que se produzca un mal uso de la escalera o cuando está sufriendo un mal funcionamiento.
 
Se desarrollará un centro de gestión de alarmas que gestione, almacene y procese estas informaciones provenientes de las unidades remotas para facilitar el consumo de la información a los operadores de seguridad o centros de recepción de alarmas (CRA). De esta forma el personal encargado de velar por la seguridad de los usuarios de la zona pueda actuar inmediatamente después de producirse la anomalía y evitar de esta forma un posible accidente.
 

Participantes:

Dominion; Visual Line; Vicomtech-IK4; Universidad Politécnica de Madrid; Euskal Trenbide Sareak.

Duración:

01-marzo-2015 a 31-diciembre-2017

 

                                                                                                                      
 
Financiación:
 
Ministerio de Economía y Competitividad, dentro del Plan Estatal de Investigación Científica y Técnica y de Innovación 2013-2016, Programa Estatal de Investigación, Desarrollo e Innovación orientada a los Retos de la Sociedad, Retos Investigación 2013 (TEC2013-48453-C2-1-R).
 
Descripción:
 
Este proyecto se propone apoyar el avance de las tecnologías empleadas en el tratamiento de imágenes y vídeo para análisis y compresión de información con realidad mixta, proponiendo nuevos algoritmos que contribuyan en las áreas de adquisición, caracterización, compresión, distribución y visualización de materiales audiovisuales con realidad mixta. Desde este objetivo principal surgen diversas áreas para apoyar el desarrollo de la realidad mixta. Estos temas han sido elegidos para corresponder con líneas de actividad actuales del equipo del proyecto. Las actividades dentro del análisis de vídeo cubren calibración de cámaras, detección y seguimiento de objetos significativos, computación perceptual, caracterización del entorno, modelado de escenas e interpretación de escena. El foco principal en representación y distribución está en ultra alta definición y los objetivos son algoritmos de compresión, implementaciones paralelas, en tiempo real y eficientes desde el punto de vista energético, streaming adaptativo, y evaluación de la calidad. Además, hay varias tareas en visualización para la presentación de la realidad mixta.
 

Participantes:

Universidad Politécnica de Madrid.

Duración:

01-enero-2014 a 31-diciembre-2016

 

 
Financiación:
 
STREP 610691 del 7º Programa Marco de la CE.
 
Descripción:
 
BRIDGET will open new dimensions for multimedia content creation and consumption by enhancing broadcast programmes with bridgets: links from the programme you are watching to external interactive media elements such as web pages, images, audio clips, different types of video (2D, multi-view, with depth information, free viewpoint) and synthetic 3D models.
Bridgets can be: 
 
- Created automatically or manually by broadcasters, either from their own content (e.g., archives, Internet and other services) or from wider Internet sources. 
- Created by end users, either from their local archives or from Internet content. 
- Transmitted in the broadcast stream or independently. 
- Filtered by a recommendation engine based on user profile, relevance, quality, etc.
 
- Enjoyed on the common main screen or a private second screen, in a user-centric and immersive manner, e.g., within 3D models allowing users to place themselves inside an Augmented Reality (AR) scene at the exact location from which the linked content was captured. 
 
To deliver the above, BRIDGET will develop: 
 
- A hybrid broadcast/Internet architecture. 
- A professional Authoring Tool (AT) to generate bridgets and dynamic AR scenes with spatialised audio. 
- An easy-to-use AT for end users. 
- A player to select bridgets, and consume and navigate the resulting dynamic AR scenes.
 
 
The AT and player will use a range of sophisticated and innovative technologies extending state-of-the-art media analysis and visual search, and 3D scene reconstruction, which will enable customised and context-adapted hybrid broadcast/Internet services offering enhanced interactive, multi-screen, social and immersive content for new forms of AR experiences. BRIDGET tools will be based on and contribute to international standards, thus ensuring the creation of a true horizontal market and ecosystem for connected TV and contributed media applications.
 

Participantes:

University of Surrey (UK); CEDEO SAS di Chiariglione Leonardo e C (IT); Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung (DE); Huawei Technologies Düsseldorf GmbH (DE); Institut Mines-Télécom (FR); RAI-Radiotelevisione Italiana SpA (IT); Telecom Italia SpA (IT); Universidad Politécnica de Madrid (ES); Visual Atoms Ltd (UK).

Duración:

01-noviembre-2013 a 31-octubre-2016

 

 

 
Financiación:
 
EU Programme Eureka CATRENE (CA111).  
 
Descripción:
 
The project aims at studying and setting up an end-to-end 4K Ultra HDTV chain (broadband and/or broadcast) for use at consumer premises and/or at dedicated show-points. The required bandwidth and activities over the chain being at least 4 times more than for full HDTV, the main challenges here are to study and develop ICs implementing new codecs more efficient in term of bandwidth with improved and additional features. The project consortium is composed of partners over the value chain, from content creation to display at home, including IC vendors and academics very active in the standardization bodies.
 

Participantes:

Hispasat (ES); SAPEC (ES); RTVE (ES); Universidad Politécnica de Madrid (ES); Barco (BE); mediAVentures (BE); Arçelik (TR); Alioscopy (FR); Arte (FR); Binocle3D (FR); Pace (FR); ST life.augmented (FR); Technicolor (FR); Thomson (FR); Université de Nantes (FR); VITEC (FR).

Duración: 

01-abril-2013 a 31-marzo-2016

 

 

 
Financiación:
 
Entidad Pública Empresarial Centro para el Desarrollo Tecnológico Industrial (CDTI), del Ministerio de Economía y Competitividad, en su línea de actuación Proyectos de Investigación y Desarrollo - Proyectos de Cooperación Tecnológica.Programa Eureka Celtic-Plus.
 
Descripción:
 
The project aims at investigating the hybrid distribution of TV programs and services over Broadcast and Broadband networks. The technology used for the contents compression is the future video compression standard: High Efficient Video Codec (HEVC). The hybrid network and the HEVC standard will allow defining new added value services. H2B2VS proposes a solution to cope with the problem of limited bandwidth on both networks by using the Broadcast network to transmit the main information and the Broadband network to transmit the additional information which can even be interactive. HEVC will also be used to reduce the required bit rate. One of the major technical challenges the project will have to face will be the difference in the Quality of Service encountered on these two types of networks. On Broadcast networks, all parameters are fully controlled by the operator. In contrast, on Broadband networks based on IP technology, parameters such as delay or jitter are not fully mastered. Synchronization between the two networks will thus be a key issue to be solved by the project. New services will be implemented using the results obtained in the H2B2VS project. Among them, we can mention broadcasting a program on the terrestrial network and sending its complementary information for Ultra-HD over the IP network, or using the Broadband network to carry out the sign language translation of a broadcast program to help deaf people.
 

Participantes:

Acatel-Lucent España SA (ES); Basari Mobile (TR); Civolution (FR); Digiturk (TR); Ecole Polytechnique Fédérale Lausanne (CH); HES-SO Yverdon (CH); HISPASAT (ES); INSA / IETR (FR); NAGRA France (FR); Nagravision (CH); Neusoft Mobile Solutions (FI); SmartJog SAS (FR); TDF SAS (FR); Tampere University of Technology (FI); Teleste Corporation (FI); Thomson Video Networks (FR); Turk Telekom Argela (TR); Universidad Politécnica de Madrid (ES); Vestel Electronics (TR); VTT Technical Research Centre of Finland (FI).

Duración:

01-enero-2013 a 31-octubre-2015

 

 

 
Financiación:
 
EU Programme Eureka Itea2 (ITEA2-11012).
 
Descripción:
 
Current TV services are evolving rapidly; mid- and longterm convergence of TV and Internet will definitely change the way we all watch TV. On one hand, it will offer the end user more new interactive and pleasing capabilities; on the other, broadcasters and operators will face a new value chain where newcomers can take advantage of the Internet and software technologies to offer end users customised advertising and targeted content, associated with personalised content. This profoundly affects the business model of current broadcasters who still adopt a relatively static end-to-end approach. Cloud architecture and services are the key aspect of this enticing new business model for future TV programme makers. Dematerialised infrastructure and software-intensive systems will offer newcomers affordable solutions to compete efficiently against traditional broadcasters. The ICARE project explored this domain by demonstrating a way of using the cloud to transport, process, deliver and protect content over a distributed, non-proprietary and adaptive architecture; and contributed to several standardisation bodies: MPEG-DASH, IETF, ITU-T and OneM2M.
 
Particularly, UPM studied the use of the adaptive streaming technology for delivering audiovisual contents in Cloud architectures, and addressed the analysis, design and optimization of control algorithms over adaptive streaming players.
 

Participantes:

AGMLab Information Technologies Ltd. (TR); Alcatel-Lucent (ES); Basari Mobile (TR); Broadpeak (FR); Civolution (NL); Institut Mines-Télécom (FR); Maxisat Yhtiöt Oy (FI); Neusoft Mobile Solutions Oy (CN); Planet Media (ES); Qbrick (JP); RTL BCE (LU); SAPEC (ES); Sanoma News (FI); Silkan (FR); Stereoscape (FI); Universidad Politécnica de Madrid (ES); Technicolor (FR); Thales Communicatios and Security (FR); Thomson Networks SAS (FR); Tribe Studios Ltd. (FI) ; Universidad Politécnica de Valencia (ES); VTT Technical Research Centre of Finland Ltd.(FI).

Duración:

01-junio-2012 a 31-febrero-2015

 

 

 
Financiación:
 
Ministerio de Economía y Competitividad, dentro del Subprograma INNPACTO 2012 (IPT-2012- 0306-430000).
 
Descripción:
 
El objetivo principal de este proyecto es el desarrollo de una plataforma que proporcione servicios de distribución de vídeo y televisión por IP (IPTV) para terminales 3G/LTE/4G a través de la tecnología basada en femtoceldas. El cliente de estos servicios se basa en la tecnología HTTP Adaptive Streaming (HAS) y está formado por un conjunto de módulos que se encargan de la selección, petición, recepción, buffering y reproducción de los segmentos en que se divide el contenido multimedia, en función de las características del escenario en el que se produce la transmisión.
 
A continuación se enumeran los objetivos específicos del proyecto:
- Garantizar la disponibilidad de ancho de banda para la distribución de contenidos de vídeo e IPTV por la red móvil gracias a la utilización de femtoceldas.
- Mejorar la cobertura de distribución de contenidos de vídeo por banda ancha.
- Conferir movilidad, aprovechando esta característica de las redes de telecomunicaciones móviles.
- Diseñar el esquema de petición de calidades empleado por el cliente. Mediante la utilización eficiente de los recursos de la red y de la capacidad del dispositivo final, este algoritmo de adaptación persigue maximizar la calidad media solicitada, minimizar el número de interrupciones en la reproducción debido a under-buffering y proporcionar una calidad estable, con mínimos cambios de calidad, a pesar de existir fluctuaciones en la capacidad de red.
- Mejorar la calidad de la experiencia del usuario con móviles de nueva generación (3G/LTE/4G) en entornos masificados (instalaciones, accesos, transportes, etc.) gracias al desarrollo de sistemas de codificación y algoritmos de adaptación para la petición de calidades de segmento adecuados en cada escenario considerado.
 

Participantes:

Alcatel-Lucent España, S.A.; SAPEC; Universidad Politécnica de Madrid.

Duración:

01-junio-2012 a 28-febrero-2015

 

 

 
Financiación:
 
Ministerio de Industria, Turismo y Comercio, dentro del Plan Nacional de Investigación Científica, Desarrollo e Innovación Tecnológica 2008-2011, Subprograma Avanza Contenidos Digitales (TSI-090100-2011-0019). 
 
Descripción:
 
El propósito principal del proyecto es el diseño e implementación de una plataforma multisoporte de emisión de vídeo sobre IP basándose en la tecnología de “IP SPLICE STREAM” con aplicación sobre plataformas DVB-T, plataformas IPTV y plataformas híbridas. Se propone el diseño e implementación de un sistema de recomendación de contenidos y de publicidad teniendo en cuenta el tipo de contenidos consumidos por el usuario, su perfil y su geolocalización. La plataforma de distribución de contenidos publicitarios hará un uso eficiente del ancho de banda disponible gracias a la tecnología de red que se plantea. El proyecto considerará la convergencia de las plataformas actuales donde se emiten y consumen contenidos y la integración sobre cualquier tipo de terminal. Entre los objetivos particulares del proyecto se encuentran:
 
- El desarrollo de tecnología de video splicing sobre IP basándose en las normas DVB actualmente estandarizadas para su integración en servicios de DVB-T y de DVB-IPTV.

- El despliegue de un caso de uso que utilice dicha tecnología para la personalización de la publicidad a nivel nacional. 
 

Participantes:

Alcatel-Lucent España, S.A.; Andstream, S.L.; Movilidad, Ingeniería, Software y Seguridad, S.L.(INNOVAE); Planet Media Studios, S.L.; Universidad Politécnica de Madrid.

Duración: 

01-julio-2011 a 31-mayo-2014

 

 

 
Financiación:
 
Ministerio de Ciencia e Innovación, desde 2012 Ministerio de Economía y Competitividad, dentro del Plan Nacional de Investigación Científica, Desarrollo e Innovación Tecnológica 2008-2011, Subprograma INNPACTO (IPT-2011-1347-430000).
 
Descripción:
 
El objetivo principal de este proyecto es el diseño y desarrollo de tecnologías de sondeo de contenidos y aplicaciones multimedia que pueda ser gestionada de forma automática y remota, y que permita obtener información relativa a la calidad de experiencia (QoE) del usuario.
 
Los resultados de proyecto permitirán conocer la calidad de una secuencia de vídeo con objeto de llevar a cabo evaluaciones y pruebas de equipos tales como codificadores, decodificadores, dispositivos de captura y visualización, así como de algoritmos de procesamiento de vídeo. Además, la evaluación de la calidad de vídeo facilitará las labores de planificación y dimensionamiento de redes de distribución y podría permitir a los distribuidores de vídeo aplicar tarifas a los usuarios en función de la calidad final que puedan disfrutar en sus hogares.
 

Participantes:

Alcatel-Lucent España, S.A.; INDRA Sistemas, S.A.; Universidad Politécnica de Madrid.

Duración:

01-julio-2011 a 31-marzo-2014

 

 

 
Financiación:
 
Ministerio de Ciencia e Innovación, dentro del Plan Nacional de Investigación Científica, Desarrollo e Innovación Tecnológica 2008-2011 (TEC2010-20412).
 
Descripción:
 
Este proyecto se propone apoyar el avance de las tecnologías empleadas en el tratamiento de imágenes y vídeo para análisis y compresión de información tridimensional, proponiendo nuevos algoritmos que contribuyan en las áreas de adquisición, caracterización, compresión, distribución y visualización de materiales audiovisuales que ofrezcan percepción de profundidad. Desde este objetivo principal surgen diversas áreas para apoyar el desarrollo de la 3DTV. Estos temas han sido elegidos para corresponder con líneas de actividad actuales del equipo del proyecto. Las actividades dentro de la adquisición y el análisis de vídeo cubren autocalibración de cámaras, detección y seguimiento de objetos significativos, caracterización de escenas, conversión de contenidos 2D a 3D y extensiones a operaciones móviles. El foco principal en representación está en codificación multi-vista y 3D como las alternativas principales para la compresión de información 3D y, en distribución, el envío inteligente de contenidos, la protección frente a errores y la evaluación de la calidad son los objetivos. Finalmente, hay diferentes tareas en visualización orientadas a la consecución de una presentación con punto de vista libre.
 

Participantes:

Universidad Politécnica de Madrid

Duración:

01-enero-2011 a 31-diciembre-2013

 

 

 
Financiación:
 
ICT COST Action (IC1003). 
 
Descripción:
 
Current forecasts on multimedia communication predict an aggressive growth. The transition from single medium communication (typically telephone and conversation based on voice) to interactive multimedia with (possibly augmented) 3D audiovisual content (media streaming, IPTV, multimodal teleconferences, NGN communication scenarios, etc.) encompasses the capability of reaching more complete and natural forms of expression and communication.
 
Perceived quality is one of the most fundamental goals when developing multimedia technologies, products and services. Thus, an approach for the design and assessment of next generation multimedia services needs to be based on effective and reliable metrics predicting the subjectively perceived quality. Quality optimization is meaningless if the notion of quality is not precisely defined, preventing effectiveness, efficiency, and user satisfaction.
 
The Network of Excellence (NoE) Qualinet aims at extending the notion of network-centric Quality of Service (QoS) in multimedia systems, by relying on the concept of Quality of Experience (QoE). The main scientific objective is the development of methodologies for subjective and objective quality metrics taking into account current and new trends in multimedia communication systems as witnessed by the appearance of new types of content and interactions. A substantial scientific impact on fragmented efforts carried out in this field will be achieved by coordinating the research of European experts under the catalytic COST umbrella.
 

Participantes:

Alpen-Adria-Universität Klagenfurt (AT); Forschungszentrum Telekommunikation Wien (AT); Universität Wien, Entertainment Computing (AT); Vrije Universiteit Brussel (BE); K. U. Leuven (BE); University of Zagreb (HR); Czech Technical University in Prague (CZ); Technical University of Denmark (DK); VTT Technical Research Centre of Finland (FI); Tampere Univ. of Technlogy (FI); Université de Nantes/Polytech Nantes (FR); TRIBVN (FR); Technische Universtität Berlin (DE); Technische Universtität München (DE); University of Würzburg (DE); Alexander TEI of Thessaloniki (GR); Hellenic Open University (GR); National University of Ireland (IE); Interdisciplinary Center (IL); Fondazione Ugo Bordoni (IT); Alinari 24 ORE spa (IT); Università di Perugia (IT); Politecnico di Bari (IT); University of Malta (MT); NTNU (NO); T-VIPS AS (NO); AGH University of Science and Technology (PL); Instituto Superior Técnico (PT); Universidade da Beira Interior (PT); Faculty of Technical Sciences (RS); Alpineon d.o.o. (SI); University of Maribor (SL); Consejo Superior de Investigaciones Cientificas (ES); Universidad Politécnica de Madrid (ES); Asociación Industrial de Óptica Color e Imagen AIDO (ES); Mid Sweden University (SE); Acreo AB (SE); Blekinge Institute of Technology (SE); Karlstad University (SE); École polytechnique fédérale de Lausanne (CH); University of Applied Sciences Western Switzerland (CH); University of Geneva (CH); University of Plymouth (GB); University of Essex (GB); University of Cyprus (CY); Faculty of Economics – Skopje (MKD);University Sts Cyril and Methodius (MKD).

Duración: 

08-noviembre-2010 a 07-noviembre-2014

 

 

 
Financiación:
 
Ministerio de Industria, Turismo y Comercio, dentro del Plan Nacional de Investigación Científica, Desarrollo e Innovación Tecnológica 2008-2011, Subprograma Avanza Competitividad (I+D+i) (TSI-020400-2010-0029 e ITEA 2-09009).
 
Descripción:
 
El objetivo principal de este proyecto es el estudio y desarrollo de una televisión tridimensional (3DTV) extremo a extremo para el consumidor, teniendo la estereoscopía como base y evolucionando hacia el multivista:

- Adquirir una comprensión de cómo se desarrolla y evoluciona la 3DTV para el consumidor.
- Profundizar en el concepto multivista, considerado como la próxima generación de la 3DTV, identificando los posibles problemas y desafíos a través de la cadena extremo-a-extremo.

- Puesta en marcha, primer paso hacia el multivista, de una cadena extremo-a-extremo estereoscópica de calidad de alta gama (IPTV, cable), para permitir la evaluación de la calidad y su aceptación.

- Adoptar el enfoque centrado en el usuario que complementa la orientación tecnológica y empresarial del proyecto que lleva a una visión global de las posibilidades y el futuro de la 3DTV.
 

 Participantes:

Alcatel-Lucent España, S.A.; Barco N.V.; D4D Ingenieria Visual, S.L.; Hispasat, S.A.; NDS Technologies France; NXP Semiconductors France; Pace France; Philips Innovative Applications - Bruges, Belgium (PIA); Planet Media; SAPEC; Technicolor R&D France; Telefonica Servicios Audiovisuales; Telenet N.V.; Thomson Video Networks France S.A.S.; Trinnov Audio; Universidad de Zaragoza; University of Nantes- IRCCyN; Universidad Politécnica de Madrid (UPM); VideoHouse; VITEC Multimedia; Vlaamse Radio en Televisieomroep (VRT).

Duración:

01-mayo-2010 a 15-julio-2012

 

 

 
Financiación:
 
Ministerio de Industria, Turismo y Comercio, dentro del Plan Nacional de Investigación Científica, Desarrollo e Innovación Tecnológica 2008-2011, Subprograma Avanza I+D (TSI-020110-2009-0205).
 
Descripción:
 
El objetivo principal de este proyecto es proporcionar una plataforma middleware que permita el desarrollo de una nueva generación de mundos virtuales en 3D de buena calidad gráfica, que integren los principales elementos de éxito de los MMOGs (Massively Multiplayer On-line Games), las redes sociales y los juegos casuales, y que permitan atraer y retener a una importante masa de usuarios.
 

Participantes

Atos Origin, S.A.; Universidad Complutense de Madrid; Universidad Politécnica de Madrid; Virtual Toys, S.L.

Duración:

01-junio-2009 a 9-diciembre-2011

 

 

 
Financiación:
 
Ministerio de Industria, Turismo y Comercio, dentro del Plan Nacional de Investigación Científica, Desarrollo e Innovación Tecnológica 2008-2011 (TSI-020100-2009-443).
 
Descripción:
 
El objeto del proyecto es la implementación de un sistema de medición de la calidad de vídeo distribuido sobre IP en redes sin garantía de servicio extremo a extremo.
 

Participantes:

Alcatel-Lucent; Universidad Politécnica de Madrid.

Duración:

01-enero-2009 a 31-diciembre-2010

 

 

 
Financiación:
 
Ministerio de Industria, Turismo y Comercio, dentro del Plan Nacional de Investigación Científica, Desarrollo e Innovación Tecnológica 2008-2011, Subprograma Avanza I+D (TSI-020301-2008-13 y TSI-020100-2010-103).
 
Descripción:
 
El objetivo tecnológico fundamental es la evolución de las redes de acceso satélite y WiMAX hacia el paradigma de las Redes de Nueva Generación (NGN), y la implementación de una plataforma prototipo para la provisión de servicios avanzados de comunicaciones basados en IMS. Asimismo WIMSAT busca responder a la demanda internacional de soluciones a esta evolución hacia NGN por parte de los operadores satélite dentro de la ventana de oportunidad, posicionando a la industria española en un lugar estratégico e incrementando su ventaja competitiva en el sector aeroespacial y de la provisión de servicios multimedia.

Participantes:

Ericsson; Indra Espacio; Retevisión; Thales Alenia Space España; Hispasat; Albentia Systems; Rose Vision; Centre Tecnológic de Telecomunicacions de Catalunya; Universidad Politécnica de Madrid; Universidad de Valladolid

Duración:

01-enero-2008 a 31-marzo-2012

 

 

 
Financiación:
 
Ministerio de Educación y Ciencia, dentro del Plan Nacional de Investigación Científica, Desarrollo e Innovación Tecnológica (I+D+I) 2004-2007, Programa Nacional de Tecnologías Electrónica y de Comunicaciones (TEC2007-67764).
 
Descripción:
 
Application environments such as security, process inspection, and data gathering have in common the need for the automatic extraction of meaningful data from large sets of image capturing devices of different characteristics. Current multicamera-based vision systems suffer from serious limitations in terms of the number of cameras they can deal with, the amount of objects they can follow, and their ability to provide useful 3D descriptions of the detected entities of interest.
 
This project aimed at pushing forward the basic technologies and the systems aspects involved in multicamera vision systems; and contributed in the areas of image and video analysis, recovery of 3D information from images, generation of 3D descriptions of environments and objects, and camera management and communication. Smart cameras (endowed with processing capabilities) are the most interesting alternative for the implementation of advanced multicamera vision systems.
 
Several image and video analysis, processing and coding algorithms that allow the analysis and characterization of complex environments observed by networked smart cameras were developed within the project, allowing the detection and tracking of elements of interest for further global contextualized analysis of situations of interest, according to three different processing levels: autonomous, centralized and collaborative. Multicamera systems, based on networked smart cameras integrated in autonomous, centralized, and collaborative environments were developed, and were applied to use cases in the areas of surveillance and assisted driving.
 

Participantes:

Universidad Politécnica de Madrid.

Duración:

01-octubre-2007 a 30-septiembre-2010

 

 

 
Financiación:
 
Ministerio de Industria, Turismo y Comercio, gestionado por el CDTI enmarcado dentro del proyecto Ingenio 2010 (CENIT 2007-1012).
 
Descripción:
 
i3media is based on technologies for automated creation and management of intelligent audiovisual contents. His philosophy is based on the idea that to compete in the audiovisual market you need the best technologies for the production, management, distribution and exploitation of content. In order to generate new technologies that offer development opportunities to companies in the consortium, i3media focuses on intelligent content, customization and automated processes.
 

Participantes:

Mediapro; TID; Havas Media; Media Planning Group; Alcatel-Lucent España; STT Ingeniería y Sistemas; Corporació Catalana de Ràdio i Televisió; a través de CCRTV SSGG; TV3; Infospeech; Brainstorm; Noufer; Raditech; Barcelona Media; Universidad Politécnica de Cataluña; Universidad Politécnica de Valencia; Universidad Autónoma de Madrid; Universidad de Murcia; Universidad de Las Palmas; Universidad Carlos III de Madrid; Universidad Politécnica de Madrid.

Duración:

01-enero-2007 a 31-diciembre-2010

 

 

 
Financiación:
 
Ministerio de Industria, Turismo y Comercio, gestionado por el CDTI enmarcado dentro del proyecto Ingenio 2010 (CENIT 2007-1007).
 
Descripción:
 
Su objetivo ha sido desarrollar una nueva generación de sistemas de comunicación que permitiera transmitir la sensación de presencia real, de manera que que las personas separadas por grandes distancias percibieran la sensación de estar físicamente reunidas en un mismo lugar tanto en entornos domésticos, pymes o grandes empresas.
 

Participantes:

Telefónica Research and Development;Ericsson; Alcatel Lucent España; Anafocus; BrainStorm Multimedia; Design of Systems on Silicon; Eptron; AD Telecom; ADTel Sistemas de Comunicación; Psicología y Realidad Virtual; Sapec; Solex; TELNET Redes Inteligentes; ROBOTIKER; Fundació i2CAT; VICOM Tech; Universitat Politècnica de Catalunya; Universidad de Valladolid; Universidad de Cantabria; Universitat Jaime I; Universidad Carlos III; Universidad Autónoma de Madrid; Universidad Politécnica de Madrid; Universidad Politécnica de Valencia.

Duración:

01-enero-2007 a 31-diciembre-2010

 

 

 
Financiación:
 
Comunidad de Madrid (CM) en el marco del Plan Regional de Investigación Científica e Innovación Tecnológica  S - 0505/TIC/0233, IV PRICIT, CM.
 
Descripción:
 
El fin (científico-técnico) primordial es incorporar diseños inteligentes en ámbitos de procesamiento distribuido y redes móviles para codificación de la información y aprehensión del entorno. 
 
Los objetivos son: 
 
- Crear, desarrollar, analizar y evaluar nuevos métodos máquina por superposición de modelos en arquitecturas convencionales, y derivar posibles versiones adaptativas.
- Diseñar, aplicar y analizar nuevos métodos de extracción de información a partir de nodos sensores distribuidos (tanto físicos como virtuales) considerando los problemas de captación, fusión y comunicación.
- Analizar, extraer, describir, indexar, adaptar, codificar y transmitir contenidos audiovisuales y multimedia, operando sobre información de varias calidades (incluyendo televisión digital y de alta definición) y estructuras 3D.
- Desarrollar nuevas tecnologías para optimización de redes de comunicaciones inalámbricas, permitiendo su despliegue ubicuo con banda ancha, bajo consumo, alta tolerancia a fallos en nodos, y garantizando variadas Calidades de Servicio.
 

Participantes:

Universidad Carlos III; Universidad Politécnica de Madrid; Universidad Rey Juan Carlos; Universidad Autónoma de Madrid.

Duración:

01-abril-2006 a 31-octubre-2009

 

 

 
Financiación:
 
EU FP6-IST - Information Society Technologies Programme of the 6th Framework Programme (IST-2004-027195).
 
Descripción:
 
I-Way is a research project that will result in an innovative cooperative driving platform which will ubiquitously monitor and recognize the road environment and the driver’s state in real time using data obtained from three types of sources:
 
1. the in-vehicle sensing system.
2. the road infrastructure.
3. neighbouring cars.
 
It supports both road-to-vehicle and vehicle-to-vehicle communication in order to enhance drivers’ perception on road environment and improve their responses in critical traffic scenarios. I-Way will develop new and efficient methods for processing multi-sensorial signals based on sensor management and data fusion techniques. For that purpose, the I-Way platform integrates several independent sub-systems, mainly distributed as in-vehicle sub-systems and external roadside sub-systems. In-vehicle sub-systems are:
 
1. The vehicle sensing module.
2. The data acquisition module.
3. The mobile interfaces of the vehicle.
4. The situation assessment module.
5. The communication module.
 
External sub-systems:
 
 
1. Roadside equipment.
2. Road Management System.
 

Participantes:

Ele.Si.A Elettronica e Sistemi per Automazione (IT); Loquendo S.p.A (IT); Universidad Politécnica de Madrid (ES); Fondazione IARD (IT); DataBlue (GR); ABM Management Company S.p.A (IT); OHB TELEDATA GmbH (DE); University of Ioannina (GR); TWT GmbH Information & Engineering (DE); MIP – School of Management (IT); SWORD Technologies S.A (LX); Eurotech France S.A.S. (FR); GL 2006 Europe (GB); Centro Ricerche Fiat (IT).

Duración:

01-febrero-2006 a 31-enero-2009

 

 

 
Financiación:
 
EU FP6-IST - Information Society Technologies Programme of the 6th Framework Programme (IST-2004-028042).
 
Descripción:
 
The Internet has pushed the television to a new era, that of interactivity. However, the main difference between them is the amount of bandwidth required by the second to transport TV/Video signals with good QoS. Mixing the internet protocol and a broadcasting network (BN) may not result in an acceptable interactive system. Moreover, BNs are unable to serve mobile users moving at high speed. SUIT will explore several techniques to minimize the above mentioned problems and will propose solutions in the context of the universal interactive television access and network convergence. SUIT will consider an end-to-end chain composed of a playout, last mile networks, and terminals of different computational and display capacities.
 
Firstly, video contents, either live or pre-recorded will be encoded in a scalable way to be delivered simultaneously to a variety of devices from HD flat displays to handheld devices. Secondly, as the viewer expects that the interactive system responds to a request quickly, SUIT will optimally manage at the playout, the DVB-T/H and WiMAX resources, thereby, the requested content will be delivered as fast as possible through the available TDMA/FDMA slots in both networks. As SUIT is using scalable video contents, the playout system is able to increase, for short time, the bandwidth to support high priority contents, e.g. hyperlinked interactive video contents. Thirdly, scalable multiple descriptions, possibly unbalanced, are delivered through DVB-T/H and WiMAX in order to support high speed mobility.
 
To achieve the objectives related to scalable video, SUIT will make use of the most recent technologies like scalable H.264/MPEG-4 SVC and MPEG-21 DIA. The former will allow encoding digital video contents in a scalable manner. In order to optimally meet the network conditions, joint source-channel-modulation schemes will be investigated. Finally, the latter will support terminal descriptions and negotiations between the terminal and the playout.
 

Participantes:

Instituto de Telecomunicações (PT); IBBT (BE); Universitat Ramon Llull (ES) ; Rohde & Schwarz (ES); University of Surrey (GB); Vitec MM (FR); Runcom (IL); IRT- Institut für Rundfunktechnik GmbH (DE); Universidad Politécnica de Madrid (ES); Wavecom (PT); Med Cap Technologies (PT).

Duración:

01-febrero-2006 a 31-mayo-2008

 

 

 
Financiación:
 
Ministerio de Educación y Ciencia, dentro del Plan Nacional de Investigación Científica, Desarrollo e Innovación Tecnológica (I+D+I) 2004-2007, Programa Nacional de Tecnologías Informáticas (TIN2004-07860).
 
Descripción:
 
The main objective of this project is to research in the design of algorithms and the development of tools, both oriented to automatic feature extraction in image sequences of controlled environments, additionally the further indexing, storage and customized access to the previously extracted and properly coded information out of those sequences. The project consists of two main stages: Information acquisition and Management of that information to offer services to the final user.
 
The information acquisition out of images from several cameras performs the automatic extraction of features of people present in those images, segmenting in real time the individual persons out of the background, while building a 3D model of the scene thanks to self-calibration techniques. Finally, this information is described according to the MPEG-7 standard to allow for efficient access and storage.
 
The second stage is mainly concerned with the management of the obtained information for its use in the development of applications. Its design is based on the user and terminal/network profiles (MPEG-21 DIA) and on the management of alert levels/options for the delivery of information relevant to each user. According to these profiles, the available coders with the proper parameters are run for the purpose of adaptation and customization of the information during each session.
 

Participantes:

Universidad Autónoma de Madrid; Universidad Politécnica de Madrid

Duración:

13-diciembre-2004 a 12-marzo-2008

 

 

 
Financiación:
 
EU FP6-IST - Information Society Technologies Programme of the 6th Framework Programme (IST-1-507926); y Ministerio de Educación y Ciencia, dentro del Plan Nacional de Investigación Científica, Desarrollo e Innovación Tecnológica (I+D+I) 2004-2007, Programa Nacional de Tecnologías Electrónica y de Comunicaciones (TEC2005-24736-E y TEC2006-26860-E).
 
Descripción:
 
The mission statement for OLGA is: to provide a unified framework to develop scalable 3D game content enabling roaming of games on a variety of terminals and networks. The technical key objective needed to fulfil this mission statement is to enable interoperable adaptation and transcoding of 3D gaming content, including complex and structured objects such as virtual characters (humanoids), over heterogeneous networks and cost-constrained devices.
 
To assess the results of the project an on-line, multi-player game will be developed and gradually upgraded during the lifetime of the project. Progressive improvements of its characteristics (game functionality, content richness, 4D content transmission, number of players, user requirements, etc.) and its applicability in varying system conditions (single server, grid computing, distributive network, etc.) will enlarge the search space for the optimal system configuration settings. The validation of the technology will be done in a public on-line environment typical for multi-player games. Although such an on-line game has been chosen to validate the technology, the OLGA Framework will be sufficiently generic in order to be applicable for other application domains. Users will be able to use (3D) content interactively, anywhere and at anytime.
 

Participantes:

Arcadia Design (IT); Interuniversitair Micro-Electronica Centrum vzw (BE); Institut National des Telecommunications (FR); ARRAKIS NV (BE); Philips Electronics Nederland B.V. (NL); Telefónica I+D (ES); Universidad Politécnica de Madrid (ES).

Duración:

01-marzo-2004 a 30-septiembre-2006

 

 

 
Financiación:
 
EU FP5-IST - Information Society Technologies Programme of the 5th Framework Programme (IST-2001-33184).
 
Descripción:
 
The main objective of the project is to provide integrated maritime training, onboard and ashore, using interactive multimedia and virtual reality technology. The project aims at promoting self-learning work and enhancement of soft skills. The proposed training process increase effectiveness and cost efficiency of training procedures in the shipping industry.
 
The project enables the existing and potential students, employees, employers and authorities to access SLIM-VRT Information System wherever and whenever they are and in a way that is user-friendly flexible, and learning effective. While directly targeting the improvement of quality of maritime training and the effectiveness of personal (and organisational) productivity, the project adds value not only to trainees’ expectations but also to the European shipping sector’s competitiveness as well as to the European Union’s vision.
 

Participantes:

British Maritime Technology (UK); Development Center of Oinoussai Aegean (GR); European Dynamics (GR); Universidad Politécnica de Madrid (ES); University of the Aegean (GR).

Duración:

01-abril-2002 a 31-marzo-2005

 

 

Artículos para revistas / Papers for journals 

- Transactions on Image Processing (editorial ieee),2013.

- Transactions on Signal Processing (editorial ieee),2013.

- Signal, Image and Video Processing (editorial springer), 2012, 2013.

- Signal Processing Letters (editorial ieee), 2012, 2013.

- International Journal of Pattern Recognition and Artificial Intelligence (editorial world scientific), 2012.

- Eurasip Journal on Advances in Signal Processing (editorial springer).

- Infrared Physics & Technology (editorial elsevier).

- The Journal of Signal Processing Systems (editorial springer).

- I.E.E.E. Transactions on Acoustics, Speech, and Signal Processing, 1988 y 1989 Qüestiió, 1990.

- Revista de Informática y Automática, 1990.

- Signal Processing, 1990 y 1991 I.E.E.E. Transactions on Signal Processing, 1992.

Artículos para congresos / Papers for congresses 

- IEEE International Conference on Image Processing 2009, 2010, 2011, 2012, 2013.

- IEEE Symposium on Industrial Electronics and Applications, 2013.

- IEEE International Conference on Image Processing.

- IEEE International Symposium on Consumer Electronics ISCE 2015.

- IEEE Symposium on Industrial Electronics and Applications.

-1983 Spain Workshop on Signal Processing and its Applications, Sitges, Septiembre 1983. 

-1984 Marrakech Workshop on Signal Processing and its Applications, Marrakech, Septiembre 1984.

- 8th International Congress on Pattern Recognition, París, Octubre 1986.

- II Jornadas del Grupo Técnico de Reconocimiento de Formas, Madrid, Octubre 1986.

- 3er Simposium Nacional de Reconocimiento de Formas y Análisis de Imágenes, Oviedo, Septiembre 1988.

- Melecon'89, Lisboa, Abril 1989.

- International Telecommunications Symposium, Rio de Janeiro, Julio 1990.

- Eusipco-90, Barcelona, Septiembre 1990.

- IV Simposium Nacional de Reconocimiento de Formas y Análisis de Imágenes, Granada, Septiembre 1990.

- Eusipco-92, Bruselas, Agosto 1992.

- Second International Workshop on Advanced Teleservices and High-Speed Communication Architectures (IWACA'94), Heidelberg, Septiembre 1994.