IoT :
Designing an efficient data management system - According
to Venture Development Corporation, Wal-Mart would produce almost 7
terabytes of data each day if there were a chip on each item sold.
What is to be done with this “flood of data” ? Do current
solutions used in particular in Business
Intelligence have
the means to satisfactorily manage the quantity and complexity of
this data ? The data emanating from RFID chips is highly
specific, as it must give information on space (location) and time
(including the movement of objects in time). For this data to make
sense, it has first to be cleaned in order to avoid repetition
(sometimes, however, under the pretext that there is a large mass of
data, the problem is rather the loss of critical data !). At
times it must also be aggregated and, depending on the required
granularity, it is not always necessary to have access to all the
data. In other cases it may be preferable to note information on a
pallet and not on specific objects. Lastly, it is necessary to be
able to structure this data. It will be necessary to invent new data
warehouses in order to provide managers with dashboards to assist in
decision-making. At present, although some research projects and a
few applications offer
some solutions, there is still a long way to go before there is
real-time integration of data originating from different geographical
locations.
Going
beyond these issues that pertain to companies, one may conjecture
what type of research engine might be adapted to the IoT. This
question has not yet been discussed to any great extent in existing
reports, although research tools will be as important in the IoT as
they are in the current Internet. The increased use of Enterprise
Search is
already a sign of the potential importance of these new markets.
Their development will probably require the resolution of new
technical challenges, linked specifically to 2D and 3D engines.
These
questions cannot be answered from a purely technical standpoint. The
history of technologies shows that the most effective solutions are
not always those that are adopted. To fully grasp the reasons for
this, it is essential to first examine the competition that exists
between diverse technological solutions.
Above
and beyond the wide choice of chip types and radio frequencies, there
are several, competing RFID solutions available on the market. The
major players – be they chip or sensor manufacturers, software
editors, integrators, or consulting firms – all attempt to further
their own technologies, standards and services. Besides, leading
users who influence the market through the extent of their orders –
for example, Wal-Mart, Metro or the Department of Defence – select
first and foremost RFID solutions for the efficient reconfiguration
of their own value chain and not for the development of a more
general standard. In the case of supermarket distribution, these
solutions must in particular improve the vertical integration of the
supply chain, facilitate online payment, and improve customer
profiling in order to implement a customized marketing policy. In
addition to their impact on markets, these major clients have also
played a significant role in the past years as a result of the
financing of research in the field (the case of Auto-ID labs is a
striking example) or by participating directly in consortia which
work on the definition of common tools and standards (the agriculture
and health sectors are particularly representative). In fact, pure
RFID players are rare, even though some are beginning to develop
considerably, such as TagSys, Verichip and Alien Technology. Indeed,
the market remains widely dominated by the traditional participants,
and in consequence the RFID solutions developed appear to some extent
to target segmented markets. Thus participants in the high-frequency
chip market sometimes differ from those present on the low-frequency
chip sector. However, the durability of this division is questionable
and it is believed that in future market segmentation may be based on
use rather than on technical parameters.
We
have hypothesized that RFID chips will be essential to reliable
functioning of the IoT. Yet other solutions may be envisaged. Intel,
a company that has invested large sums in R&D linked to RFID, has
recently sold this branch of its business to a Californian producer
of RFID readers (Impinj). This does not mean that the future of RFID
is in jeopardy : the transfer does not totally cast doubt on
Intel’s involvement in the RFID market, but rather depicts a change
in the type of investment (the agreement with Impinj included an
exchange of shares). However, the future of the IoT will not
necessarily be bound to that of RFID technology. Many laboratories
and firms are working on the development of alternative solutions
that could, in the future, replace RFID solutions, such as, for
instance, acoustic identification systems, the use of microwaves, of
optical systems, or the detection of DNA. Some are also considering
integrating chips into the design of objects themselves, which would
strongly impact on the issues surrounding RFID as we perceive them
today. At
the heart of this competition between technologies the major
industrial and public players make strategic choices via
standardization organizations.
The
question of standards involves technical, economic, legal and
political issues. Rather than give a comprehensive account of these
questions or list important standards for the IoT, we will centre
this analysis on three crucial questions : the dependence of
current standards on former norms, the difficult conciliation between
the pertinence and equity of standards selected, and the challenge of
effective interconnection between standards.
IoT
standards are based on the main principles that are at the core of
the Internet (DNS, TCP/IP, etc.) and the barcode system. The key
players involved in this standardization are one and the same. Thus
the TCP/IP protocol and XML language remain a reference for the IoT.
Similarly, the guiding principles of the Electronic Product Code are
very close to those used for the barcode system.
This
legacy of the Internet and the barcode system to the IoT is likely,
for technical reasons, to limit certain developments and
applications. Moreover, if billions of units of extra data have to
travel through the network, it is doubtful whether the Internet will
be able to adapt : not only for physical reasons regarding the
infrastructure (namely due to router capacity), but also for issues
of logic (in the long term, the principles designed for the Internet
would not be viable for the IoT). However, other research
teams advocate discarding former standards and seizing the
opportunity to develop the IoT from a clean slate, thus permitting a
complete redesign of the main functioning principles of this new
Internet. In terms of evolution, or revolution, the technical,
economic, and, more widely, political impacts will not be the same.
Today,
the standardization of networks is carried out either by private
industrial groups, or by international standardization organizations.
Where industrial groups are concerned, EPCglobal is one of the major
players involved in regulation, whether public or private ;
standard conformity certification is out-sourced to a private company
(MET). Then, AIM Global and Global Data Synchronisation are private
cooperative organizations that are central to the process of
connecting applications, objects and firms. ISO, ITU and ETSI are at
the core of the network of public representation in
telecommunications standardization. W3C, IETF and IEEE are the
founders of Internet standards. Lastly, ICANN is the organization
that currently carries out domain name management on the Internet.
Standardization represents a key technical challenge not only because
of the nature of the technical choices (frequency, power, encoding,
etc.) but also as a result of the diversity of levels and types of
standardization. Those involved in these issues are highly diverse
and the selected models alternate between proprietary and private,
voluntary and shared solutions (industrial model and standards), de
jure public
(telecommunications model) and self-regulation. But the aim must
remain to succeed in developing open standards by promoting a
transparent dialogue between the different participants. This is a
necessary condition for the development of competition and for the
harmonization of solutions available on the market.
Beyond
simply the improvement of standards, it is fundamental to plan for
their interoperability, particularly since the IoT is a system of
systems which necessarily requires a high level of interoperability.
In this context, some significant breakthroughs have been achieved in
the case of NFC (Near Field Communication) technologies. NFC
solutions enable the connection of two electronic devices a short
distance from each other, via a wireless system, in order for them to
interact (this type of system is used in Japan as a means of
payment). At the beginning of 2008, the members of the ETSI (European
Telecommunications Standards Institute) selected a software protocol
which makes it possible to control communication between the NFC
system and a SIM card. This type of standardization is essential
where large-scale production is envisaged. Similarly, on the mobile
phone market, many positive developments have recently taken place
with the adoption of the LTE (Long Term Evolution) standard by many
key players in this sector (AT&T, China Mobile, Vodafone,
Verizon, Motorola, Nortel, etc.). This trend will have a significant
impact on achieving a better definition of 4G (fourth generation) :
until now the definition of this standard has been relatively
ambiguous, which could deter some investors. Over and above these
breakthroughs on the mobile phone market, the role of public
institutions remains essential in promoting standards that guarantee
interoperability. The European Commission thus defends the principle
of open standard via the IDABC. The aim is to ensure governance by a
non-profit organization, which enables all stakeholders to
participate democratically in the creation and the evolution of the
standard. Besides, the dissemination of this standard is widespread
and free (or at nominal cost). Also, copying and distribution may be
executed freely (for instance, there are no licences). As an example,
the European Commission supports the BRIDGE project (Building Radio
Frequency IDentification solutions for the Global
Environment) launched in 2006. This aims to implement an open
standard based on the application developed by EPCglobal for the use
of RFID solutions that manage the traceability of products throughout
the supply chain.
Selon
Venture Development Corporation, Wal-Mart générerait près de 7
teraoctets de données chaque jour s’il y avait une puce sur chaque
article vendu. Que faire de ce « déluge de données » ?
Les solutions actuelles utilisées notamment en Business
Intelligence sont-elles
en mesure de gérer correctement à la fois la quantité et la
complexité de ces données ? Les données issues des puces
RFID sont particulières car elles doivent permettent de prendre en
compte à la fois l’espace (la localisation) et le temps (avec
notamment la durée de vie des objets). Pour que ces données fassent
sens, il faut dans un premier temps les « nettoyer »
pour éviter les redondances (mais il ne faut pas non plus oublier,
sous prétexte qu’il y a beaucoup de données, que dans certains
cas, le problème est plutôt la perte de données critiques !).
Il faut également réfléchir à leur « agrégation »
car, en fonction de la granularité requise, il n’est pas toujours
nécessaire d’avoir accès à toutes les données. Dans certains
cas, il sera par exemple préférable d’avoir une information au
niveau d’une palette et non pas au niveau d’un objet. Enfin, il
faudra être capable de structurer ces données. De
nouveaux datawarehouses (entrepôts
de données) devront être inventés pour permettre aux managers
d’avoir des tableaux de bord qui puissent les aider à décider.
Actuellement, s’il existe des recherches et quelques
applicatifs qui
apportent des éléments de solution, le chemin à parcourir est
encore long pour permettre une gestion en continu avec une
intégration en temps réel des données s’inscrivant dans des
ensembles géographiquement distribués.
Au-delà
de ces problématiques d’entreprises, on peut s’interroger sur le
moteur de recherche qui sera adapté à l’IdO. La question est
encore peu abordée dans les travaux existants, mais les outils de
recherche seront un enjeu tout aussi déterminant dans l’IdO que
dans l’internet actuel. Les évolutions de l’Entreprise
Search sont
déjà une indication de l’importance potentielle de ces nouveaux
marchés. Leur développement suppose sans doute de résoudre des
enjeux techniques inédits, associés notamment aux moteurs 2D et 3D.
Les
questions qui viennent d’être évoquées ne peuvent pas se
comprendre avec une logique purement technique. L’histoire des
technologies l’a montré, les solutions les plus performantes ne
s’imposent pas toujours. Pour saisir les phénomènes à l’œuvre,
il est essentiel d’analyser la concurrence qui existe entre
différentes solutions technologiques.
Au-delà
du type de puces et de radiofréquences, les solutions RFID
disponibles sur le marché sont très nombreuses et se trouvent en
concurrence. Les intervenants dominants, qu’ils soient fabricants
de puces ou de capteurs, éditeurs de middleware,
intégrateurs, ou encore cabinets de conseil, poussent leurs
technologies, leurs standards ou leurs services. Par ailleurs, de
grands utilisateurs (lead
users)
orientent le marché par le volume de leurs commandes tels que
Wal-Mart, Metro ou encore le département de la Défense, qui
mobilisent les solutions RFID avec comme objectif principal une
reconfiguration efficiente de leur propre chaîne de valeur, et non
le développement d’un standard plus général. Dans le cas de la
grande distribution, ces solutions doivent notamment améliorer
l’intégration verticale de la chaîne logistique, faciliter les
systèmes bancaires de paiement, ou encore améliorer la connaissance
des clients pour mettre en place des politiques marketing ciblées.
Outre leur impact sur le marché, ces grands comptes ont également
eu un rôle majeur depuis plusieurs années en finançant les
recherches sur le secteur (le cas des Auto-ID labs est significatif),
ou en participant directement aux consortia qui travaillent sur la
définition des outils et des standards communs (sur ce point, les
secteurs agricole et de la santé sont très illustratifs).
Finalement, les pure
players de
la RFID sont rares, même si certains commencent à se développer de
manière significative comme TagSys, Verichip ou encore Alien
Technology. Le marché reste en effet largement dominé par des
acteurs traditionnels et, de ce fait, les solutions RFID développées
semblent en partie correspondre à des marchés cloisonnés. Ainsi
les acteurs sur le marché des puces fonctionnant à hautes
fréquences ne sont pas toujours les mêmes que ceux opérant sur le
marché des puces à basses fréquences. Ceci étant, certains
doutent du caractère durable d’un tel découpage et évoquent une
segmentation du marché fondée sur des questions d’usages plus que
des paramètres techniques.
Nous
avons fait l’hypothèse selon laquelle les puces RFID seront
indispensables au bon fonctionnement de l’IdO. Mais d’autres
solutions pourraient être envisageables. Intel, entreprise qui a
investi des sommes importantes dans la R&D liée à la RFID, a
récemment vendu toute cette activité à un fabricant californien de
lecteurs RFID (Impinj). Cette information n’indique bien sûr pas
que l’avenir des RFID soit compromis, car cette opération ne remet
pas totalement en cause l’implication d’Intel sur le marché des
RFID, mais plutôt les modalités de son investissement (l’accord
avec Impinj s’est fait par échange d’actions). Toutefois
l’avenir de l’IdO ne sera pas nécessairement lié à celui de la
RFID. De nombreux laboratoires et industriels travaillent en effet
sur des solutions alternatives qui pourraient supplanter à l’avenir
les solutions RFID. Il s’agit par exemple de systèmes
d’identification acoustiques, de l’usage des micro-ondes, de
systèmes optiques, de la détection de l’ADN, ou encore du
marquage logiciel. Certains évoquent aussi l’intégration des
puces dans la conception même des objets, ce qui modifierait
sensiblement les problématiques RFID telles que nous les envisageons
à ce jour.
Au
cœur de cette concurrence entre technologies, les grands acteurs
industriels et publics opèrent des choix stratégiques via les
organismes de standardisation.
La
question des standards est au croisement de problèmes techniques,
économiques, juridiques et politiques. Plutôt que de faire une
revue exhaustive de ces questions ou une liste des standards
importants pour l’IdO, nous centrerons l’analyse sur trois
questions critiques : la dépendance des standards actuels
aux standards passés, la difficile conciliation entre pertinence et
équité des standards retenus et enfin l’enjeu de l’interconnexion
des standards.Les standards de l’IdO reprennent les grands
principes qui sont au fondement de l’internet (DNS, TCP/IP, etc.)
et du système du code barres. Les principaux acteurs qui
interviennent sur ces standardisations sont les mêmes. Ainsi le
protocole TCP/IP et le langage XML restent toujours des références
pour l’IdO. L’ONS est un système issu du DNS qui assure le
nommage de l’internet. De la même façon, les logiques de
l’Electronic
Product Code dérivent
de celles utilisées pour le système du code barres. Cet héritage
de l’IdO par rapport à l’internet et au système de code
barres pourrait limiter techniquement certains développements et
certaines applications. Par ailleurs, si des milliards de données
supplémentaires devaient transiter par le réseau, la capacité de
l’internet à y faire face est mise en doute à la fois pour des
questions physiques liées aux infrastructures (en raison notamment
de la capacité des routeurs) et des problèmes logiques (les
principes pensés pour l’internet ne seraient plus viables à long
terme pour l’IdO). Pour répondre à ces nouveaux défis et aux
enjeux de sécurité et de fiabilité de l’IdO, certains pensent
que des mesures incrémentales peuvent suffire. Le passage de l’IPv4
à l’IPv6 (Internet
Protocol version
6) est une illustration de cette démarche d’évolution au sein du
même paradigme de l’internet historique. Ce nouveau protocole
permettra d’augmenter considérablement la quantité d’adresses
disponibles (on passe de 4,29.109 adresses à 3,4.1038) mais
aussi d’améliorer le fonctionnement des routeurs ou encore de
renforcer la sécurité. À l’inverse, différents groupes prônent
le dépassement des standards passés en saisissant l’opportunité
de l’IdO pour repartir de zéro (Clean
State)
et repenser complètement les grands principes de fonctionnement de
ce nouvel internet. Entre évolution et révolution, les impacts
techniques, économiques et plus largement politiques ne seront pas
les mêmes.
Aujourd’hui,
la normalisation des réseaux est le fait soit de groupements
industriels privés, soit d’organismes de normalisation
internationaux. Pour les groupements industriels, EPCglobal est un
des acteurs dominants, à la fois public et privé, qui sous-traite
les certifications de conformité aux standards EPC à une entreprise
privée (MET). AIM Global et Global Data Synchronisation sont quant à
eux des structures coopératives privées déterminantes pour la mise
en relation des applications, des objets et des firmes. De leur côté,
ISO, ITU et ETSI forment la base du réseau des acteurs publics de la
normalisation dans le secteur des télécommunications. W3C, IETF,
IEEE sont à l’origine des standards de l’internet. L’ICANN est
l’organisme qui assure aujourd’hui la gestion des noms de domaine
sur internet. La standardisation représente un enjeu et un verrou
technique déterminants à la fois par la nature des choix techniques
effectués (fréquence, puissance, encodage...) et par la diversité
des niveaux et des registres de standardisation. Les acteurs qui
interviennent sur ces questions sont très divers et les modèles
alternent entre les solutions propriétaires et privées, volontaires
et consensuelles (modèle des normes industrielles), public de
jure (modèle
des télécommunications) et l’autorégulation. Mais l’objectif
doit rester de parvenir à développer des standards ouverts en
promouvant un dialogue transparent entre les différents acteurs.
C’est une condition nécessaire au développement de la concurrence
et à l’harmonisation des solutions sur le marché.
Au-delà
de la question de l’élaboration de standards, il est fondamental
de penser à leur interopérabilité, et ce, d’autant plus que
l’IdO est un système de systèmes qui nécessite un niveau
d’interopérabilité élevé. Actuellement, certaines avancées
notables ont eu lieu sur cette question pour les technologies dites
NFC (Near
Field Communication).
Les solutions NFC permettent, via un système sans fil, de connecter
deux dispositifs électroniques à courte distance pour les faire
interagir (ce type de système est tout particulièrement utilisé au
Japon comme moyen de paiement). Depuis le début de l’année 2008,
les membres de l’ETSI (European
Telecommunications Standards Institute)
ont ainsi sélectionné le protocole du logiciel qui permet de
contrôler la communication entre le dispositif NFC et une carte SIM.
Ce type de standardisation est critique pour envisager la production
à grande échelle. De la même façon, des évolutions très
positives ont eu lieu sur le marché de la téléphonie mobile ces
derniers temps avec l’adoption par de nombreux acteurs de poids
(AT&T, China Mobile, Vodafone, Verizon, Motorola, Nortel, etc.)
du standard LTE (Long
Term Evolution).
Cette tendance est une clef pour mieux préciser les contours de la
4G (quatrième génération), car jusqu’à présent un flou relatif
entourait la définition de ce standard, ce qui pouvait décourager
les investisseurs. Au-delà des avancées dans le marché de la
téléphonie mobile, le rôle des institutions publiques reste
fondamental pour promouvoir des standards qui garantissent
l’interopérabilité. À travers IDABC, la Commission européenne
défend ainsi le principe de standard ouvert. L’objectif est
d’assurer une gouvernance du standard par une organisation sans but
lucratif qui permette à l’ensemble des parties prenantes de gérer
de façon démocratique la création et l’évolution du standard.
Par ailleurs, la diffusion d’un tel standard est large et gratuite
(ou alors au coût nominal). Enfin, la copie et la distribution se
font également sans entraves (absence de licences, notamment). La
Commission européenne défend et finance par exemple le projet
BRIDGE (Building
Radio Frequency IDentification solutions for the Global Environment),
initié en 2006, qui permettra de mettre en place un standard ouvert
fondé sur l’application développée par EPCglobal pour
l’utilisation de solutions RFID aptes à gérer la traçabilité
des produits tout au long de la chaîne logistique.