IoT: Etkili bir veri yönetim sistemi tasarlama

IoT : Designing an efficient data management system - According to Venture Development Corporation, Wal-Mart would produce almost 7 terabytes of data each day if there were a chip on each item sold. What is to be done with this “flood of data” ? Do current solutions used in particular in Business Intelligence have the means to satisfactorily manage the quantity and complexity of this data ? The data emanating from RFID chips is highly specific, as it must give information on space (location) and time (including the movement of objects in time). For this data to make sense, it has first to be cleaned in order to avoid repetition (sometimes, however, under the pretext that there is a large mass of data, the problem is rather the loss of critical data !). At times it must also be aggregated and, depending on the required granularity, it is not always necessary to have access to all the data. In other cases it may be preferable to note information on a pallet and not on specific objects. Lastly, it is necessary to be able to structure this data. It will be necessary to invent new data warehouses in order to provide managers with dashboards to assist in decision-making. At present, although some research projects and a few applications offer some solutions, there is still a long way to go before there is real-time integration of data originating from different geographical locations. Going beyond these issues that pertain to companies, one may conjecture what type of research engine might be adapted to the IoT. This question has not yet been discussed to any great extent in existing reports, although research tools will be as important in the IoT as they are in the current Internet. The increased use of Enterprise Search is already a sign of the potential importance of these new markets. Their development will probably require the resolution of new technical challenges, linked specifically to 2D and 3D engines. These questions cannot be answered from a purely technical standpoint. The history of technologies shows that the most effective solutions are not always those that are adopted. To fully grasp the reasons for this, it is essential to first examine the competition that exists between diverse technological solutions.
Above and beyond the wide choice of chip types and radio frequencies, there are several, competing RFID solutions available on the market. The major players – be they chip or sensor manufacturers, software editors, integrators, or consulting firms – all attempt to further their own technologies, standards and services. Besides, leading users who influence the market through the extent of their orders – for example, Wal-Mart, Metro or the Department of Defence – select first and foremost RFID solutions for the efficient reconfiguration of their own value chain and not for the development of a more general standard. In the case of supermarket distribution, these solutions must in particular improve the vertical integration of the supply chain, facilitate online payment, and improve customer profiling in order to implement a customized marketing policy. In addition to their impact on markets, these major clients have also played a significant role in the past years as a result of the financing of research in the field (the case of Auto-ID labs is a striking example) or by participating directly in consortia which work on the definition of common tools and standards (the agriculture and health sectors are particularly representative). In fact, pure RFID players are rare, even though some are beginning to develop considerably, such as TagSys, Verichip and Alien Technology. Indeed, the market remains widely dominated by the traditional participants, and in consequence the RFID solutions developed appear to some extent to target segmented markets. Thus participants in the high-frequency chip market sometimes differ from those present on the low-frequency chip sector. However, the durability of this division is questionable and it is believed that in future market segmentation may be based on use rather than on technical parameters. We have hypothesized that RFID chips will be essential to reliable functioning of the IoT. Yet other solutions may be envisaged. Intel, a company that has invested large sums in R&D linked to RFID, has recently sold this branch of its business to a Californian producer of RFID readers (Impinj). This does not mean that the future of RFID is in jeopardy : the transfer does not totally cast doubt on Intel’s involvement in the RFID market, but rather depicts a change in the type of investment (the agreement with Impinj included an exchange of shares). However, the future of the IoT will not necessarily be bound to that of RFID technology. Many laboratories and firms are working on the development of alternative solutions that could, in the future, replace RFID solutions, such as, for instance, acoustic identification systems, the use of microwaves, of optical systems, or the detection of DNA. Some are also considering integrating chips into the design of objects themselves, which would strongly impact on the issues surrounding RFID as we perceive them today. At the heart of this competition between technologies the major industrial and public players make strategic choices via standardization organizations. The question of standards involves technical, economic, legal and political issues. Rather than give a comprehensive account of these questions or list important standards for the IoT, we will centre this analysis on three crucial questions : the dependence of current standards on former norms, the difficult conciliation between the pertinence and equity of standards selected, and the challenge of effective interconnection between standards.
IoT standards are based on the main principles that are at the core of the Internet (DNS, TCP/IP, etc.) and the barcode system. The key players involved in this standardization are one and the same. Thus the TCP/IP protocol and XML language remain a reference for the IoT. Similarly, the guiding principles of the Electronic Product Code are very close to those used for the barcode system. This legacy of the Internet and the barcode system to the IoT is likely, for technical reasons, to limit certain developments and applications. Moreover, if billions of units of extra data have to travel through the network, it is doubtful whether the Internet will be able to adapt : not only for physical reasons regarding the infrastructure (namely due to router capacity), but also for issues of logic (in the long term, the principles designed for the Internet would not be viable for the IoT). However, other research teams advocate discarding former standards and seizing the opportunity to develop the IoT from a clean slate, thus permitting a complete redesign of the main functioning principles of this new Internet. In terms of evolution, or revolution, the technical, economic, and, more widely, political impacts will not be the same.
Today, the standardization of networks is carried out either by private industrial groups, or by international standardization organizations. Where industrial groups are concerned, EPCglobal is one of the major players involved in regulation, whether public or private ; standard conformity certification is out-sourced to a private company (MET). Then, AIM Global and Global Data Synchronisation are private cooperative organizations that are central to the process of connecting applications, objects and firms. ISO, ITU and ETSI are at the core of the network of public representation in telecommunications standardization. W3C, IETF and IEEE are the founders of Internet standards. Lastly, ICANN is the organization that currently carries out domain name management on the Internet. Standardization represents a key technical challenge not only because of the nature of the technical choices (frequency, power, encoding, etc.) but also as a result of the diversity of levels and types of standardization. Those involved in these issues are highly diverse and the selected models alternate between proprietary and private, voluntary and shared solutions (industrial model and standards), de jure public (telecommunications model) and self-regulation. But the aim must remain to succeed in developing open standards by promoting a transparent dialogue between the different participants. This is a necessary condition for the development of competition and for the harmonization of solutions available on the market.

Beyond simply the improvement of standards, it is fundamental to plan for their interoperability, particularly since the IoT is a system of systems which necessarily requires a high level of interoperability. In this context, some significant breakthroughs have been achieved in the case of NFC (Near Field Communication) technologies. NFC solutions enable the connection of two electronic devices a short distance from each other, via a wireless system, in order for them to interact (this type of system is used in Japan as a means of payment). At the beginning of 2008, the members of the ETSI (European Telecommunications Standards Institute) selected a software protocol which makes it possible to control communication between the NFC system and a SIM card. This type of standardization is essential where large-scale production is envisaged. Similarly, on the mobile phone market, many positive developments have recently taken place with the adoption of the LTE (Long Term Evolution) standard by many key players in this sector (AT&T, China Mobile, Vodafone, Verizon, Motorola, Nortel, etc.). This trend will have a significant impact on achieving a better definition of 4G (fourth generation) : until now the definition of this standard has been relatively ambiguous, which could deter some investors. Over and above these breakthroughs on the mobile phone market, the role of public institutions remains essential in promoting standards that guarantee interoperability. The European Commission thus defends the principle of open standard via the IDABC. The aim is to ensure governance by a non-profit organization, which enables all stakeholders to participate democratically in the creation and the evolution of the standard. Besides, the dissemination of this standard is widespread and free (or at nominal cost). Also, copying and distribution may be executed freely (for instance, there are no licences). As an example, the European Commission supports the BRIDGE project (Building Radio Frequency IDentification solutions for the Global Environment) launched in 2006. This aims to implement an open standard based on the application developed by EPCglobal for the use of RFID solutions that manage the traceability of products throughout the supply chain.

 Selon Venture Development Corporation, Wal-Mart générerait près de 7 teraoctets de données chaque jour s’il y avait une puce sur chaque article vendu. Que faire de ce «  déluge de données  »  ? Les solutions actuelles utilisées notamment en Business Intelligence sont-elles en mesure de gérer correctement à la fois la quantité et la complexité de ces données  ? Les données issues des puces RFID sont particulières car elles doivent permettent de prendre en compte à la fois l’espace (la localisation) et le temps (avec notamment la durée de vie des objets). Pour que ces données fassent sens, il faut dans un premier temps les «  nettoyer  » pour éviter les redondances (mais il ne faut pas non plus oublier, sous prétexte qu’il y a beaucoup de données, que dans certains cas, le problème est plutôt la perte de données critiques  !). Il faut également réfléchir à leur «  agrégation  » car, en fonction de la granularité requise, il n’est pas toujours nécessaire d’avoir accès à toutes les données. Dans certains cas, il sera par exemple préférable d’avoir une information au niveau d’une palette et non pas au niveau d’un objet. Enfin, il faudra être capable de structurer ces données. De nouveaux datawarehouses (entrepôts de données) devront être inventés pour permettre aux managers d’avoir des tableaux de bord qui puissent les aider à décider. Actuellement, s’il existe des recherches et quelques applicatifs qui apportent des éléments de solution, le chemin à parcourir est encore long pour permettre une gestion en continu avec une intégration en temps réel des données s’inscrivant dans des ensembles géographiquement distribués. Au-delà de ces problématiques d’entreprises, on peut s’interroger sur le moteur de recherche qui sera adapté à l’IdO. La question est encore peu abordée dans les travaux existants, mais les outils de recherche seront un enjeu tout aussi déterminant dans l’IdO que dans l’internet actuel. Les évolutions de l’Entreprise Search sont déjà une indication de l’importance potentielle de ces nouveaux marchés. Leur développement suppose sans doute de résoudre des enjeux techniques inédits, associés notamment aux moteurs 2D et 3D. Les questions qui viennent d’être évoquées ne peuvent pas se comprendre avec une logique purement technique. L’histoire des technologies l’a montré, les solutions les plus performantes ne s’imposent pas toujours. Pour saisir les phénomènes à l’œuvre, il est essentiel d’analyser la concurrence qui existe entre différentes solutions technologiques.
Au-delà du type de puces et de radiofréquences, les solutions RFID disponibles sur le marché sont très nombreuses et se trouvent en concurrence. Les intervenants dominants, qu’ils soient fabricants de puces ou de capteurs, éditeurs de middleware, intégrateurs, ou encore cabinets de conseil, poussent leurs technologies, leurs standards ou leurs services. Par ailleurs, de grands utilisateurs (lead users) orientent le marché par le volume de leurs commandes tels que Wal-Mart, Metro ou encore le département de la Défense, qui mobilisent les solutions RFID avec comme objectif principal une reconfiguration efficiente de leur propre chaîne de valeur, et non le développement d’un standard plus général. Dans le cas de la grande distribution, ces solutions doivent notamment améliorer l’intégration verticale de la chaîne logistique, faciliter les systèmes bancaires de paiement, ou encore améliorer la connaissance des clients pour mettre en place des politiques marketing ciblées. Outre leur impact sur le marché, ces grands comptes ont également eu un rôle majeur depuis plusieurs années en finançant les recherches sur le secteur (le cas des Auto-ID labs est significatif), ou en participant directement aux consortia qui travaillent sur la définition des outils et des standards communs (sur ce point, les secteurs agricole et de la santé sont très illustratifs). Finalement, les pure players de la RFID sont rares, même si certains commencent à se développer de manière significative comme TagSys, Verichip ou encore Alien Technology. Le marché reste en effet largement dominé par des acteurs traditionnels et, de ce fait, les solutions RFID développées semblent en partie correspondre à des marchés cloisonnés. Ainsi les acteurs sur le marché des puces fonctionnant à hautes fréquences ne sont pas toujours les mêmes que ceux opérant sur le marché des puces à basses fréquences. Ceci étant, certains doutent du caractère durable d’un tel découpage et évoquent une segmentation du marché fondée sur des questions d’usages plus que des paramètres techniques. Nous avons fait l’hypothèse selon laquelle les puces RFID seront indispensables au bon fonctionnement de l’IdO. Mais d’autres solutions pourraient être envisageables. Intel, entreprise qui a investi des sommes importantes dans la R&D liée à la RFID, a récemment vendu toute cette activité à un fabricant californien de lecteurs RFID (Impinj). Cette information n’indique bien sûr pas que l’avenir des RFID soit compromis, car cette opération ne remet pas totalement en cause l’implication d’Intel sur le marché des RFID, mais plutôt les modalités de son investissement (l’accord avec Impinj s’est fait par échange d’actions). Toutefois l’avenir de l’IdO ne sera pas nécessairement lié à celui de la RFID. De nombreux laboratoires et industriels travaillent en effet sur des solutions alternatives qui pourraient supplanter à l’avenir les solutions RFID. Il s’agit par exemple de systèmes d’identification acoustiques, de l’usage des micro-ondes, de systèmes optiques, de la détection de l’ADN, ou encore du marquage logiciel. Certains évoquent aussi l’intégration des puces dans la conception même des objets, ce qui modifierait sensiblement les problématiques RFID telles que nous les envisageons à ce jour. Au cœur de cette concurrence entre technologies, les grands acteurs industriels et publics opèrent des choix stratégiques via les organismes de standardisation.
La question des standards est au croisement de problèmes techniques, économiques, juridiques et politiques. Plutôt que de faire une revue exhaustive de ces questions ou une liste des standards importants pour l’IdO, nous centrerons l’analyse sur trois questions critiques  : la dépendance des standards actuels aux standards passés, la difficile conciliation entre pertinence et équité des standards retenus et enfin l’enjeu de l’interconnexion des standards.Les standards de l’IdO reprennent les grands principes qui sont au fondement de l’internet (DNS, TCP/IP, etc.) et du système du code barres. Les principaux acteurs qui interviennent sur ces standardisations sont les mêmes. Ainsi le protocole TCP/IP et le langage XML restent toujours des références pour l’IdO. L’ONS est un système issu du DNS qui assure le nommage de l’internet. De la même façon, les logiques de l’Electronic Product Code dérivent de celles utilisées pour le système du code barres. Cet héritage de l’IdO par rapport à l’internet et au système de code barres pourrait limiter techniquement certains développements et certaines applications. Par ailleurs, si des milliards de données supplémentaires devaient transiter par le réseau, la capacité de l’internet à y faire face est mise en doute à la fois pour des questions physiques liées aux infrastructures (en raison notamment de la capacité des routeurs) et des problèmes logiques (les principes pensés pour l’internet ne seraient plus viables à long terme pour l’IdO). Pour répondre à ces nouveaux défis et aux enjeux de sécurité et de fiabilité de l’IdO, certains pensent que des mesures incrémentales peuvent suffire. Le passage de l’IPv4 à l’IPv6 (Internet Protocol version 6) est une illustration de cette démarche d’évolution au sein du même paradigme de l’internet historique. Ce nouveau protocole permettra d’augmenter considérablement la quantité d’adresses disponibles (on passe de 4,29.109 adresses à 3,4.1038) mais aussi d’améliorer le fonctionnement des routeurs ou encore de renforcer la sécurité. À l’inverse, différents groupes prônent le dépassement des standards passés en saisissant l’opportunité de l’IdO pour repartir de zéro (Clean State) et repenser complètement les grands principes de fonctionnement de ce nouvel internet. Entre évolution et révolution, les impacts techniques, économiques et plus largement politiques ne seront pas les mêmes.
Aujourd’hui, la normalisation des réseaux est le fait soit de groupements industriels privés, soit d’organismes de normalisation internationaux. Pour les groupements industriels, EPCglobal est un des acteurs dominants, à la fois public et privé, qui sous-traite les certifications de conformité aux standards EPC à une entreprise privée (MET). AIM Global et Global Data Synchronisation sont quant à eux des structures coopératives privées déterminantes pour la mise en relation des applications, des objets et des firmes. De leur côté, ISO, ITU et ETSI forment la base du réseau des acteurs publics de la normalisation dans le secteur des télécommunications. W3C, IETF, IEEE sont à l’origine des standards de l’internet. L’ICANN est l’organisme qui assure aujourd’hui la gestion des noms de domaine sur internet. La standardisation représente un enjeu et un verrou technique déterminants à la fois par la nature des choix techniques effectués (fréquence, puissance, encodage...) et par la diversité des niveaux et des registres de standardisation. Les acteurs qui interviennent sur ces questions sont très divers et les modèles alternent entre les solutions propriétaires et privées, volontaires et consensuelles (modèle des normes industrielles), public de jure (modèle des télécommunications) et l’autorégulation. Mais l’objectif doit rester de parvenir à développer des standards ouverts en promouvant un dialogue transparent entre les différents acteurs. C’est une condition nécessaire au développement de la concurrence et à l’harmonisation des solutions sur le marché.
Au-delà de la question de l’élaboration de standards, il est fondamental de penser à leur interopérabilité, et ce, d’autant plus que l’IdO est un système de systèmes qui nécessite un niveau d’interopérabilité élevé. Actuellement, certaines avancées notables ont eu lieu sur cette question pour les technologies dites NFC (Near Field Communication). Les solutions NFC permettent, via un système sans fil, de connecter deux dispositifs électroniques à courte distance pour les faire interagir (ce type de système est tout particulièrement utilisé au Japon comme moyen de paiement). Depuis le début de l’année 2008, les membres de l’ETSI (European Telecommunications Standards Institute) ont ainsi sélectionné le protocole du logiciel qui permet de contrôler la communication entre le dispositif NFC et une carte SIM. Ce type de standardisation est critique pour envisager la production à grande échelle. De la même façon, des évolutions très positives ont eu lieu sur le marché de la téléphonie mobile ces derniers temps avec l’adoption par de nombreux acteurs de poids (AT&T, China Mobile, Vodafone, Verizon, Motorola, Nortel, etc.) du standard LTE (Long Term Evolution). Cette tendance est une clef pour mieux préciser les contours de la 4G (quatrième génération), car jusqu’à présent un flou relatif entourait la définition de ce standard, ce qui pouvait décourager les investisseurs. Au-delà des avancées dans le marché de la téléphonie mobile, le rôle des institutions publiques reste fondamental pour promouvoir des standards qui garantissent l’interopérabilité. À travers IDABC, la Commission européenne défend ainsi le principe de standard ouvert. L’objectif est d’assurer une gouvernance du standard par une organisation sans but lucratif qui permette à l’ensemble des parties prenantes de gérer de façon démocratique la création et l’évolution du standard. Par ailleurs, la diffusion d’un tel standard est large et gratuite (ou alors au coût nominal). Enfin, la copie et la distribution se font également sans entraves (absence de licences, notamment). La Commission européenne défend et finance par exemple le projet BRIDGE (Building Radio Frequency IDentification solutions for the Global Environment), initié en 2006, qui permettra de mettre en place un standard ouvert fondé sur l’application développée par EPCglobal pour l’utilisation de solutions RFID aptes à gérer la traçabilité des produits tout au long de la chaîne logistique.

Aucun commentaire:

Enregistrer un commentaire