Aller au contenu principal

Articles de la catégorie ‘Technologies’

Stratégies – La journalisation en environnement IaaS, un mélange entre technique et justification économique

9 août 2014

Arnaud Alcabez

Dans les architectures de type Cloud Computing, à la différence de l’informatique traditionnelle, stocker des journaux de transaction (ou logs an anglais) doit être vu comme une ligne budgétaire. Si vous considérez que chaque traitement en Cloud Computing consomme des ressources et donc est un centre de coût pour votre modèle, il est nécessaire de penser « quelle valeur financière à le log en tant que ligne de service ? ».

L’informatique dans les nuages diffère de l’hébergement traditionnel par de nombreux aspects. Concentrons-nous sur deux éléments fondamentaux de ce type d’environnement :

  • La facturation à la consommation. Contrairement aux architectures classiques, il n’existe que de rares limites techniques, comme par exemple en termes de capacité disque. Néanmoins, chaque traitement doit être considéré comme une somme de consommation de ressources : Volume de transaction réalisé, puissance de calcul nécessaire pour réaliser cette transaction, et enfin, le stockage utilisé pour mémoriser cette transaction.
  • L’élasticité. Dans une architecture traditionnelle, on pense à l’unité, c’est-à-dire au niveau d’un serveur. Ainsi, nous avons tous appris à gérer notre infrastructure en donnant des nomenclatures précises à des serveurs pour leur nom, mais aussi de gérer des plans d’adressage IP où chaque machine est connue sur le réseau et identifiée par un certain nombre de références. Dans les architectures de type Cloud Computing, nous sommes amenés à penser en termes de flotte (ou fleet en anglais) d’instances afin de réaliser une opération. Par exemple, pour une fonction telle que un serveur Web frontal, nous définissons une valeur minimum d’instances, une valeur maximum d’instances et une valeur privilégiée d’instances. En fonction de la charge ou des instances endommagées, le service d’élasticité adaptera automatiquement le nombre d’instances afin qu’elle soit cohérente par rapport à l’activité. Ce principe fait qu’il devient inutile de réfléchir à donner des noms précis à chaque serveur, ou même d’attacher une importance particulière à savoir quelle adresse IP est actuellement utilisée par quelle instance à un instant T du traitement.

Dans des architectures de type Cloud Computing, on considère que chaque instance peut être jetable, en particulier lorsqu’on construit des services applicatifs, soit pour des raisons de montée ou de réduction de charge, soit parce que l’instance peut être corrompue et ne plus fonctionner de manière opérationnelle. Cependant, les données des journaux de transactions du système ou de l’application doivent généralement être conservés, même après que l’instance soit supprimée automatiquement ou manuellement, soit pour des questions d’analyse, soit pour des raisons de conformité. Pour cela, les données des journaux de transactions doivent être stockées en dehors des instances elles-mêmes.

Trois architectures principales permettent de concevoir un modèle de gestion des journaux dans une architecture de type Cloud Computing.

1ère possibilité : Rotation individuelle des journaux de transactions sur un espace de stockage

etape1Le principe de ce premier modèle est des plus simples : chaque instance écrit régulièrement ses transactions dans un espace de stockage commun et partagé pour les valider et les considérer comme réalisées.

Ce modèle est particulièrement avantageux car son coût de mise en œuvre est simple. Toutefois, si une instance s’arrête de manière non programmée, les dernières transactions de l’instance seront perdues, ce qui peut être un risque acceptable dans certaines circonstances, mais pas dans d’autres. D’autre part, il n’y a pas particulièrement d’agrégation des journaux entre les instances, ce qui risque d’être compliqué pour avoir une lecture simplifiée des journaux de transaction en cas de recherche ultérieure.

2ème possibilité : Centralisation des journaux avec une rotation sur un espace de stockage

etape 2Ce deuxième scénario permet de pouvoir envoyer les journaux sur une instance, qui effectuera les opérations de consolidation avant de stocker les données résultantes sur un espace de stockage réservé à cet effet. Le problème de ce modèle est qu’il n’est pas élastique au sens où il est très dépendant du nombre d’instances exécutées. Ces dernières pourraient engendrer une contrainte de charge sur l’instance de consolidation que ce soit en ce qui concerne la bande passante, la puissance de calcul nécessaire ou l’espace disque utilisé pour travailler sur les journaux. Enfin pour terminer, si l’instance supplémentaire est défaillante, la perte d’une partie des journaux aura plus d’impact que dans le schéma précédent, à partir du moment où ce sont l’ensemble des journaux de toutes les instances en attente d’écriture qui sera perdu d’un seul coup.

3ème possibilité : Architecture distribuée de collecte et de gestion des journaux

etape3Pour avoir une architecture de gestion des journaux en conformité avec une application élastique, nous nous devons de la construire à l’image de l’application elle-même. Dans le schéma ci-dessus, plusieurs changements ont été apportés.

Le premier consiste à utiliser un service de gestion de queue pour les messages et d’éviter les appels directs entre les serveurs. Bien connu des développeurs, cette technologie permet à des applications exécutées à des moments différents de communiquer à travers des réseaux et des systèmes hétérogènes, même s’ils sont temporairement déconnectés. Elle fournit une livraison des messages garantie, un routage efficace, une sécurité et une messagerie basée sur la priorité. Ainsi, elle garantit que les transactions seront correctement expédiées dans la queue pour traitement, même si l’instance n’est plus en ligne.

Le second consiste à séparer les services pour que les instances soient toujours dédiées à une tâche simple et unique. Ainsi, la collecte des journaux ne demande pas faire recours à des unités de calcul. Les collecteurs sont donc très simples, redondants et peuvent être exécutés sur des machines à faible consommation. Le collecteur se charge de récolter l’ensemble des journaux émis par les instances, puis de les transférer pour consolidation dans une autre queue prévue à cet effet.

Enfin, les instances de calcul pour consolider les journaux peuvent faire l’usage de leur puissance pour agglomérer et indexer les événements récoltés par les collecteurs avant de les enregistrer sur un espace de stockage consolidé. Notez que les instances de calcul sont elles-mêmes dans un groupe de montée en charge dynamique afin que leur nombre soit adapté automatiquement en fonction du nombre de transactions à traiter.

4ème possibilité : Dénicher l’outil tiers magique

Bien entendu, il existe certainement de nombreux outils tiers permettant de collecter et de consolider des journaux pour des architectures de type Cloud Computing. Toutefois, vous retomberez sur plusieurs problématiques : le surcoût de la solution, le fait que ces technologies fonctionnent généralement sur la base d’un couplage fort avec les instances qu’elles gèrent (le couplage fort des composants étant antinomique avec la notion même du Cloud Computing) et tous les problèmes que vous pourriez rencontrer sur le fait d’exécuter du code d’un tiers sur votre application ou l’aptitude de la solution à perdurer dans le temps avec votre application.

En résumé

Les architectures de type Cloud Computing diffèrent des architectures traditionnelles. La facturation à la consommation des services et l’aspect élastique des solutions font que la conservation des journaux de transactions, soit pour des raisons de contrôle, soit pour des raisons de conformité, doit faire l’objet d’une étude économique.

Ainsi, il est important tout d’abord de comprendre la valeur financière d’un journal des transactions : Quelle charge de travail et de stockage pour quel intérêt business ? Enregistrer des centaines de transactions par seconde n’a pas de réelle utilité si ce n’est pas pour les exploiter ultérieurement, soit au titre de la preuve, soit au titre de l’analyse post-traitement.

C’est la valorisation des journaux de transactions qui permettra de déterminer l’architecture la plus adéquate (d’un service simple et à faible coût supplémentaire à un service hautement disponible, fiable et flexible, et géo-redondant). Une application pouvant très bien faire appel à plusieurs architectures selon la nature de la transaction : Un journal d’opérations techniques  par rapport à un journal des commandes passées par des clients n’aura sans doute pas droit à la même attention.

Une fois votre architecture construite, il ne vous restera plus qu’à appliquer le coût du service de journalisation comme une quote-part du coût global du service à vos clients, et voilà…

Pour IT Pro Magazine, 2014

Publicités

Stratégies – Croissance soutenue pour les architectures IaaS en 2014

9 août 2014

Arnaud Alcabez

Cette fois ci, ça a été chaud ! Vous avez failli trouver une jolie page blanche à la place de cet article sur le Cloud Computing. La raison ? La faute au Gartner (voir le graphique ci-dessous) et aux infrastructures as a service.

En ce début d’année, les sollicitations pour étudier la capacité à mettre en œuvre ce type d’architecture ont explosé mon agenda. Bien que le IaaS serve dans de nombreuses configuration telles que l’hébergement d’applications, la diffusion de contenu, les sites de e-commerce ou d’applications mobiles grand public, le HPC, l’encodage et diffusion de médias vidéo ou audio, les outils de recherche, l’hébergement de sites web, le Big Data, et l’externalisation de serveurs, j’ai pu noter un intérêt croissant des entreprises avec lesquelles je travaille sur trois scénarios particuliers, que je partage avec vous ce mois.

stats

Premier scénario : Les moteurs de bases de données et des volumes en augmentation constante

Contrairement aux applications SaaS (Software as a service), telles qu’Office 365, le IaaS se compose d’une collection d’objets à interconnecter les uns aux autres. On peut résumer les types d’objets comme suit : Compute (des serveurs virtuels), Storage (des espaces de stockage), Networking (des réseaux virtuels), Database (des moteurs de bases de données relationnelles ou non), Application Services (des services additionnels) et Management (des services d’administration et de gestion des composants IaaS).

Une des différences majeures entre les services SaaS et les services IaaS, concerne la facturation à la demande des ressources. Ainsi, contrairement à Office 365 où le montant de votre facturation dépend du package de services auxquels vous vous abonnez (appelé « plan » chez Microsoft) et du nombre de boîtes aux lettres, les offres IaaS sont radicalement basées sur les consommations des ressources et des transferts sortants du centre de données. Ainsi, vous ne payez que pour ce que vous consommez.

Pour vous donner un exemple, chez certains fournisseurs, votre facture sera la même que vous exécutiez un serveur pendant mille heures ou mille serveurs pendant une heure. Dans le premier cas, votre résultat sera disponible dans mille heures, dans le second, d’ici une heure, ce qui fait une très grosse différence pour certains traitements, notamment tous ceux qui peuvent être liés à de l’analyse de données.

Enfin, les ressources sont disponibles, dans une richesse quasi-illimitée, et ce, sans être liées à une quelconque obsolescence matérielle. Prenons un exemple simple : Imaginons que vous ayez à bâtir une architecture qui demande un volume de stockage important, et pour le traiter un serveur multiprocesseurs puissant équipé de SQL Server ou d’Oracle. Le problème de cette architecture, c’est qu’elle repose sur des éléments matériels électroniques dont l’obsolescence programmée mettra en difficulté votre application dans trois ans (généralement la limite de garantie matérielle). Certes, vous pourrez étendre vos contrats de maintenance, mais à un coût supplémentaire qui finalement augmentera de manière mécanique le prix de vos transactions. Si vous passez à une échelle de dix ans, avec de l’informatique traditionnelle, plus de solution, à moins de réinvestir régulièrement dans vos infrastructures avec encore une fois, comme résultat d’augmenter le coût de vos transactions. C’est pour cette raison que de nombreuses entreprises font appel aux offres IaaS, telles que Windows Azure ou Amazon Web Services. En effet, de cette manière, ces sociétés se désengagent complètement de la gestion du cycle de vie matériel sans interruption de service, qui revient à la charge du fournisseur.

Bien sûr, le coût annuel de la location de ressources chez un fournisseur sera plus élevé que sur vos propres infrastructures, mais si vous comptez les réinvestissements de matériels et les difficultés pour faire ses mises à jour sans arrêter les transactions, ce surcoût annuel sera très vite amorti. Si vous considérez qu’en plus, vous devez mettre à disposition des infrastructures identiques à votre production pour votre pré-production, votre plan de recouvrement et une architecture limitée à vos équipes de développement et de tests, l’économie d’échelle est encore bien plus grande.

Néanmoins, c’est un domaine dans lequel les expertises sont rares. Non seulement, il est nécessaire de comprendre et de mettre en œuvre les services IaaS chez différents fournisseurs, mais vous devrez acquérir une compétence variée sur différents systèmes d’exploitation (RedHat, CentOs, Windows) et moteurs de bases de données (SQL Server, MySQL, Oracle) relationnels ou de type NoSQL.

Deuxième scénario : Les plans de recouvrement et les plateformes pour les études

Une deuxième demande en forte croissance concerne les études de plan de recouvrement et de bascule automatisée dès la détection d’un incident de production, ainsi que la fourniture d’environnements de production pour les études à la demande, un peu sur le principe du « copier-coller-démarrer ». Là encore, les infrastructures IaaS sont particulièrement bien adaptées à répondre à ces attentes, même s’il y a beaucoup de travail en amont à réaliser.

La première opération consiste à analyser l’infrastructure en place chez un client, pour en déterminer les silos fonctionnels et les adhérences dans un premier temps. Dans un deuxième temps, il est nécessaire de regrouper les silos en trois catégories :

  • La première constituée des composants étant naturellement déjà compatibles avec les plateformes IaaS
  • La seconde constituée des composants étant incompatibles avec les plateformes IaaS, et qui devront attendre ou être redéveloppés
  • La dernière constituée des composants dont le déplacement vers une plateforme IaaS s’avère être contre-productif pour des raisons économiques, de sécurité ou d’exploitation

La seconde opération consiste à modifier la production progressivement pour qu’elle puisse être adaptée à des bascules vers les infrastructures IaaS. Souvent, les entreprises avec lesquelles je travaille ont déjà fait le plus gros des opérations : Création automatisée d’environnements basés sur des images systèmes et applicatives via des scripts, exploitation des serveurs dématérialisés dans des fermes VMware ou Hyper-V, utilisation de console de gestion et de supervision de parcs virtualisés. Si c’est votre cas, vous êtes en bonne position. Si ce n’est pas encore le cas, je pense qu’il est nécessaire de vous y mettre au plus vite.

Troisième scénario : L’externalisation des sauvegardes sur bandes

C’est sans doute le sujet le moins compliqué à première vue pour mettre un pied dans les infrastructures IaaS : l’externalisation des sauvegardes de votre entreprise. La plupart des éditeurs principaux en offres IaaS possèdent à leur catalogue des solutions permettant de gérer virtuellement leur espace de stockage dans le cloud comme un lecteur de bandes virtuelles d’une capacité illimitée. Ainsi, pour vos exploitants, pas de changement : ceux-ci continueront à utiliser leurs outils de sauvegarde et leurs jeux de sauvegarde. D’un point de vue technique, les bandes seront automatiquement uploadées vers votre espace de stockage sécurisé sur le nuage, vous permettant ainsi de ne plus vous soucier des contraintes d’externalisation des jeux de sauvegarde. Enfin, plus fort, les bandes stockées dans le cloud pourront être déplacées au bout d’un certain laps de temps sur des espaces de stockage moins coûteux, vous permettant ainsi de réaliser une économie sur l’espace alloué via les solutions d’archivage des éditeurs IaaS. La différence entre le stockage et l’archivage se situant principalement sur le délai d’accès à votre bande en cas d’incident : L’accès est généralement immédiat pour une bande stockée, alors que pour une bande archivée, le temps de restauration dépend du volume et de la solution de l’éditeur. Par exemple, avec Amazon Web Services, avec son service d’archivage « Glacier », la disponibilité de la bande archivée est généralement d’un délai de 2 à 5 heures, alors qu’elle est immédiate avec son espace de stockage S3.

Si vous êtes visiteurs lors des Microsoft TechDays 2014, du 11 au 13 février 2014 à Paris, je vous conseille plus particulièrement deux sessions, parmi les plus de quarante proposées, durant lesquelles vous pourrez poser vos questions : Déploiement d’architectures hybrides dans Windows Azure, animée par Pierre Chesné, le mardi 11 février de 11h à 11h45, qui passera en revue les différents scénarios d’architectures allant du simple déploiement d’une machine virtuelle aux déploiements d’architecture n tiers ; dans ce cadre seront aussi abordés le stockage , le réseau , le VPN … Cette session permettra aux IT de tester, dans Windows Azure, la mise en place d’architectures répondant à leurs besoins (PRA, Stockage, Elasticité, AD , RDS …..), et la session Reprise et Continuité d’activité sur le Cloud : Mythes & Réalités, animée par Olivier Sallaberry et Stéphane Wollier, le mardi 12 février, de 16h30 à 17h15 sur la mise en œuvre de PRA en utilisant les ressources de Windows Azure, notamment dans ce qu’il est possible d’envisager dans une infrastructure IaaS, et des erreurs à ne pas commettre.

Pour ceux qui n’auront pas la chance d’y assister, pas de problème. Comme toutes les sessions seront  enregistrées, elles devraient être accessibles quelques semaines après la fin des Microsoft TechDays 2014 à l’adresse suivante : http://www.microsoft.com/france/mstechdays/

Pour IT Pro Magazine, 2014

Microsoft Office 365 ou Google Apps : Quelle suite est la plus adaptée à votre entreprise ? – Deuxième partie

9 août 2014

Arnaud Alcabez

Préambule

Microsoft Office 365 et Google Apps for Business sont deux services basés sur le Cloud Computing qui fournissent à des petites, moyennes et grandes entreprises des outils de communications et des outils bureautiques à coût à l’usage. Toutefois, Google Apps et Microsoft Office 365 ont des différences significatives qui peuvent rendre difficile la tâche de choisir entre ces deux offres.

J’ai donc considéré que pour avoir une vue impartiale de chacune des solutions, il était nécessaire de déployer et d’utiliser pendant plusieurs mois les deux offres, celle de Microsoft et celle de Google. Une fois déployées, il fallait encore déterminer une grille commune de fonctionnalités que je devais comparer, et de donner un ordonnancement à chacune des catégories testées :

  • Tarification
  • Niveaux de services
  • Couverture du service (pour les utilisateurs, pour la contractualisation, et compatibilité avec les régulations)
  • Messagerie classique et archivage
  • Messagerie instantanée, conférences en ligne, messagerie vocale
  • Collaboration en ligne
  • Intégration avec l’intranet
  • Intégration avec Active Directory
  • Support des périphériques mobiles
  • Support du mode déconnecté
  • Administration et prérequis d’installation
  • Interface utilisateur et facilité d’usage
  • Stockage en ligne

Nous avions déjà couvert dans un précédent numéro les trois premières catégories de cette liste. Découvrons ce mois les cinq suivantes : la messagerie (classique et instantanée), la collaboration, l’intégration (dans un intranet ou à Active Directory).

Comparaison de la couverture fonctionnelle des offres

Le gagnant : Variable selon la fonctionnalité

Prenons tout d’abord les fonctionnalités basiques que l’on attend d’une messagerie dans le nuage. Si nous examinons le contenu des offres des deux éditeurs, nous pouvons établir un tableau comme celui ci-dessous :

Table 3: Office 365/Google Apps Comparaison des fonctionnalités

 

GOOGLE APPS

OFFICE 365

Messagerie

Oui

Oui, via Exchange

Archivage de messagerie

Oui, avec Vault

Oui, avec les plans E3/E4

Messagerie instantanée

Oui

Oui

Service de conference Web

Oui, avec Hangout*

Oui, via Lync Online ou Lync

Server

Chat vocal point à point

Oui, VOIP ou Google Voice

Oui, via Lync Online ou Lync

Server

Fonctionnalités vocales avancées (Remplacement de PBX)

Non

Oui, via Lync Server (plan E4 uniquement)

Collaboration en ligne et stockage de fichiers

Oui

Oui, via SharePoint (plans E2 plans et supérieurs) et Office Web Apps

Intégration à l’intranet

Non

Oui, via SharePoint

Intégration à Active Directory

Oui

Oui

Support des périphériques mobiles

Oui, multiplateforme

Oui, multiplateforme

Mode déconnecté

Oui mais limité

Oui

*Google Hangout: http://www.google.fr/hangouts/

En synthèse, avec ce premier tableau, les fonctionnalités essentielles que l’on peut attendre d’une messagerie sont présentes dans les deux offres, sauf si vous avez comme obligation que le service supporte des fonctionnalités de téléphonie IP avancée ou que vous souhaitez intégrer dans la solution l’Intranet de votre entreprise. Toutefois, pour chacun des fonctionnalités auxquelles les deux offres apportent une couverture, existe-il des différences ?

Messagerie classique et archivage

Le gagnant : Egalité

Le support de la messagerie est naturellement proposé par les deux offres. En fait, la grande différence se situe au niveau des infrastructures qui sont utilisées : Google stocke les données de messagerie sur ses propres serveurs tandis que Microsoft stocke vos données sur des serveurs Exchange montés spécialement à cette fin. En ce qui concerne l’archivage, les deux éditeurs proposent leur solution, en l’adaptant à leur modèle tarifaire. Ainsi, Google propose sa solution d’archivage au travers de Vault, pendant que Microsoft propose la sienne via les plans E3 et E4. Pas de grande différence : les deux éditeurs considèrent l’archivage comme une extension payante de leur service de messagerie et non comme une fonctionnalité intégrée dans leur prix de base.

Bien sûr, certains penseront toujours qu’une fonction technique de telle messagerie par rapport à l’offre concurrente est mieux faite ; que la commande X possède 2 paramètres de plus que la même fonction chez l’autre éditeur ou que la fonction avancée unetelle existe chez l’un et pas chez l’autre, mais tous ces points de détails sont rarement des éléments d’aide à la décision dès lors qu’on doit choisir son futur système de messagerie. La première raison est que ces offres font toujours l’objet de mise à jour permanente, ce qui rend difficile d’appuyer son choix uniquement sur un détail technique, à moins que celui-ci soit un élément tout à fait bloquant pour votre activité professionnelle.

Messagerie instantanée, conférences en ligne, messagerie vocale

Le gagnant : Office 365

Google Apps prend en charge la messagerie texte et la voix sur IP (VoIP) via son service Google Chat. Sa solution permet également d’appeler des numéros de téléphone traditionnels via Google Voice. Google Voice permet d’émettre et de recevoir des appels depuis n’importe quel poste et les prix pratiqués sont généralement raisonnables, de 10 centimes ou moins la minute, même lors d’appels internationaux.

Microsoft propose un service similaire avec Lync Online (ce qui n’est pas le même produit que Lync Server, dont nous reparlerons un peu plus tard). Lync est une plateforme en soi, qui comprend des indicateurs de présence indiquant qui est en ligne et leur statut de disponibilité, la capacité d’envoyer un message instantané à d’autres utilisateurs de Lync ou de Skype (la messagerie grand public de Microsoft depuis l’arrêt de Windows Live/Messenger), la capacité de créer et participer à des conférences en ligne, et non la moindre, le support des appels téléphoniques PC à PC comme si vous utilisez un système téléphonique traditionnel.

Peut-être que le plus grand avantage d’Office 365 sur Google Apps tient en sa capacité de pouvoir réaliser des conférences en ligne jusqu’à 250 participants, que ces derniers se trouvent dans ou à l’extérieur de votre entreprise. Les utilisateurs peuvent partager leur bureau, faire des présentations, et partager leurs fichiers avec d’autres utilisateurs. A ce jour, Google n’a pas de service comparable, et le service apparenté le plus proche, Google Hangout, se limite à 8 participants actifs simultanés, ce qui est assez vite atteignable.

Ensuite, la différence se joue sur la capacité de Microsoft à pouvoir proposer Lync Server. Lync Server 2013 – le serveur physique – n’est certes pas totalement le même produit que Lync Online – l’offre cloud, et pour disposer d’une architecture efficace, vous devrez choisir d’utiliser Lync Online ou Lync Server 2013 pour tous vos utilisateurs. Le fait de déployer Lync Server 2013 dans votre infrastructure rendra le coût de possession de votre messagerie certainement un peu plus cher qu’en utilisant Lync Online, mais en le faisant, il présentera de nombreux atouts d’ordre économique, comme la possibilité d’appeler un numéro RTC sans nécessiter le besoin de faire appel à un service partenaire pouvant vous le faire payer avec une surtaxe. Lync Server 2013 pourra également s’intégrer totalement à votre système de téléphonie d’entreprise, et vous fournir des options avancées, telles que le renvoi d’appel ou le transfert à un autre poste, ou à votre mobile, en simultané ou non, et la prise en charge des appels d’urgence ou des numéros spéciaux. D’autres fonctionnalités comme la possibilité de transférer un appel vers un périphérique mobile sans mettre fin à l’appel ou la possibilité d’interfacer votre répondeur ou vos échanges avec la messagerie sont des fonctionnalités importantes mettant en valeur la transformation des usages dont je parlais dans le précédent numéro, et qui aura forcément une incidence sur la façon dont vos utilisateurs communiquent entre eux, avec leurs clients et avec leurs fournisseurs.

Collaboration en ligne

Le gagnant : Google Apps

Nous abordons maintenant certainement l’une des confrontations les plus controversées entre l’offre de Microsoft et l’offre de Google : la collaboration en ligne. Pour de nombreuses entreprises, la collaboration en ligne est la principale raison d’adopter une application en mode SaaS (Software as a service).

Google répond à cette fonctionnalité de partage de fichiers et de collaboration par Google Drive. Pour Microsoft, il s’agit d’une fonction supportée par SharePoint Online et Office Web Apps. Essayer de comparer ces deux réponses revient à tenter d’établir le classement entre les pommes et les oranges. Je vais donc être réducteur : Google gagne la bataille pour une raison principale : la facilité d’utilisation.

Google Drive a été pensé dès le début pour des besoins de facilité de collaboration, point final. Au contraire, SharePoint a été conçu pour des usages multiples, dont le partage de fichiers et la collaboration. Certes, Google Drive est bien moins sophistiqué que SharePoint Online, mais l’absence de distraction et de complexité permet de se concentrer sur la fonction : Le partage et le travail collaboratif. Google Drive permet d’inviter des personnes internes ou extérieures à collaborer sur un document assez simplement, là où SharePoint Online demande d’y réfléchir à deux fois. Cela étant dit, si votre partage collaboratif requiert l’intégration de workflows, dans ce cas, SharePoint Online est un produit qui répondra à vos attentes.

Enfin, Microsoft possède un sérieux avantage lorsque vous devrez travailler sur des documents collaboratifs en mode déconnecté, car l’installation d’Office 2013 localement sur votre poste de travail permettra de traiter un document sans avoir de connexion Internet permanente.

Microsoft offre des avantages supplémentaires en matière de stockage, notamment grâce à la possibilité de régler les quotas par utilisateur, ce qui n’est pas possible avec Google Apps for Business. Le quota est partagé entre Google Drive, Gmail et les albums Picassa. Chez Microsoft, SharePoint, SkyDrive et Exchange Online ont chacun leur silo, et leur système spécifique de quotas. C’est donc un point de vue qui oppose les deux éditeurs : Vous aurez une plus grande souplesse en termes de granularité du stockage avec Office 365, mais cette option vous demandera en contrepartie une gestion plus complexe, avec trois silos de stockage à paramétrer.

Finalement, si vous cherchez des caractéristiques spécifiques ou des contrôles granulaires, Microsoft gagne, il n’y a pas photo. Si vous cherchez à faciliter la collaboration entre les utilisateurs, alors Google prend la tête.

Un dernier élément à prendre en considération est la manière dont les deux systèmes ont tendance à dériver avec le temps, après deux ou trois ans d’utilisation. Avec l’offre de Microsoft et son système de stockage par silo, les utilisateurs auront tendance à disposer de multiples versions d’un même document : dans leurs boîtes aux lettres, sur SharePoint Online, dans leurs SkyDrive, entraînant une grande difficulté pour l’entreprise de disposer d’une seule source pour un document. Pour Google, au contraire, le travail collaboratif se fera autour d’un document (chez Microsoft, le travail collaboratif est plutôt réalisé autour des utilisateurs). Les petits soucis avec Google apparaîtront lorsque vos utilisateurs quitteront l’entreprise : Ne disposant pas de système de centralisation, les documents créés par votre ancien collaborateur risquent tout simplement de ne plus être accessibles.

En conclusion, ni Office 365, ni Google Drive ne sera idéal si votre entreprise ne réfléchit pas à mettre en œuvre un cycle de vie documentaire efficace dès le début. Quant à mon choix de conserver Google Apps comme le gagnant de cette catégorie, je ne doute pas qu’il sera fortement critiqué par les administrateurs et les architectes SharePoint, mais si vous en connaissez, vous serez sans doute d’accord avec moi qu’ils sont d’un niveau technique bien différent de celui de vos utilisateurs…

Intégration avec l’intranet

Le gagnant : Office 365

Le partage des documents en ligne et la gestion du portail intranet d’Office 365 est réalisé par SharePoint Online. SharePoint est une plateforme de Microsoft qui met l’accent sur le partage d’information par des sites Web. Avec des modèles (ou templates) préconfigurés, l’activation d’un espace collaboratif est rapide et efficace. Les utilisateurs existants de SharePoint 2010 ou 2013 (désolé pour vous, les utilisateurs de SharePoint 2007) peuvent directement intégrer Office 365. Les grandes entreprises apprécieront particulièrement ce que Microsoft appelle « les sites d’équipes », des sites webs séparés pouvant être utilisés comme des lieux de travail de groupe et/ou des domaines de collaboration spécifiques à un projet. Si votre entreprise ne dispose pas déjà d’un intranet, Office 365 vous permettra d’en déployer un très facilement, en quelques clics. Outre les fonctionnalités de collaboration d’Office 365, un intranet peut être un outil efficace pour la communication et les annonces à l’échelle de l’entreprise ou d’une équipe, et offre une alternative viable à l’explosion des messages à des listes de diffusion.

Certes, Google Apps permet également de créer un site web, incluant un intranet, et fournit des outils prêts à l’emploi pour le faire. Comme avec Office 365, la création d’un site web dans Google Apps – un site Google – ne demande pas de connaissances particulières… au moins, tant que vous ne souhaitez pas verser dans une trop grande personnalisation ou automatisation.

Néanmoins, la balance penche en faveur d’Office 365. Les sites SharePoint peuvent s’adapter avec beaucoup plus de facilité à la personnalisation, en comparaison de l’offre de Google, qui fournit uniquement une personnalisation assez basique. Par exemple, SharePoint supporte la personnalisation des fichiers CSS, là où Google ne le supporte pas. En outre, les sites SharePoint permettent la création de workflows de manière simple. Google non. SharePoint peut acheminer des documents et des demandes d’approbation par certains utilisateurs, ce qui permet rapidement de proposer des services, comme par exemple, une validation des demandes de congés payés ou de notes de frais.

Finalement, Microsoft est beaucoup plus fortement ancré dans la gestion des sites, alors que Google a opté pour une vision plus intuitive mais limitée de la collaboration via Google Sites. Evidemment, Google Sites peut suffire pour une collaboration de base, mais SharePoint possède la flexibilité que les environnements complexes d’entreprise peuvent exiger.

Intégration avec Active Directory

Le gagnant : Office 365

Microsoft et Google disposent tous les deux des outils pour synchroniser les utilisateurs Active Directory avec leur service en ligne. Google Apps Directory Sync (GADS) peut communiquer directement avec un serveur Microsoft Active Directory (un DC) et ajouter et supprimer les utilisateurs appropriés de manière à correspondre à votre schéma organisationnel. Vous pouvez utiliser des règles complexes permettant un mappage personnalisé des utilisateurs, groupes, contacts externes, profils utilisateur complets, alias, ressources d’agenda et exceptions Toutefois, la synchronisation est unidirectionnelle, de votre annuaire au service Google Apps.

Microsoft a également son outil de synchronisation d’annuaire qui conserve les informations de vos utilisateurs synchronisées avec Office 365 : DirSync. Il s’agit également d’une synchronisation monodirectionnelle. Pour cette fonction, Microsoft prend légèrement l’avantage, avec un nombre de champs (niveaux, groupes, structure) synchronisés plus important.

La différence va surtout se faire dans les intégrations plus avancées, comme le souhait d’utiliser une fonctionnalité de compte/mot de passe unique (single sign-on) ou d’authentification à deux facteurs. Si Microsoft dispose d’un outil simple (ADFS 2.0/3.0) et des jetons SAML pour mettre en œuvre le single sign-on, l’opération s’avère un peu plus compliquée avec Google, qui demande soit des compétences de développeur (https://developers.google.com/google-apps/sso/saml_reference_implementation) soit de s’appuyer sur des outils tiers payants. Microsoft fournit une documentation très riche et de nombreux exemples pour mettre en œuvre ces fonctions, alors que la complexité et l’absence de documents avec Google Apps risquent d’en rebuter plus d’un…

Nous voici déjà arrivé à la fin de ce deuxième volet. Je vous donne rendez-vous pour la dernière partie dans un prochain numéro où nous terminerons notre comparaison entre les deux offres de services en ligne sur cinq catégories : la mobilité, le mode déconnecté, l’administration, l’interface utilisateur et le stockage en ligne. D’ici là, je vous souhaite de très bons Microsoft TechDays 2014 pour ceux que j’aurais l’occasion de voir, parmi les 18.000 visiteurs attendus, au Palais des Congrès à Paris, les 11, 12 et 13 février 2014.

Pour IT Pro Magazine, 2014

Histoire de la messagerie électronique – 5ème édition

28 décembre 2013

Arnaud Alcabez

Avec une publication tous les deux ans, vous trouverez grâce à ce lien (http://wp.me/a10UD4-KF) la dernière mise à jour, comprenant les faits marquants en 2012 et 2013. Bonnes fêtes.

Stratégies – L’été 2013 aura été Snow(den)

26 décembre 2013

Arnaud Alcabez

La vie privée sur Internet aura pris un sacré coup durant l’été avec l’affaire Edward Snowden (http://www.lemonde.fr/technologies/article/2013/08/16/la-nsa-a-enfreint-la-loi-sur-la-vie-privee-des-milliers-de-fois_3462261_651865.html ) et les révélations des programmes Prism et consorts. Le cabinet d’analyse ITIF (The Information Technology & Innovation Foundation) juge même que ces révélations pourraient faire perdre aux grandes sociétés fournissant des services en ligne entre 22 et 35 milliards de dollars US de revenus durant les trois prochaines années. Source : http://www.01net.com/editorial/601007/le-scandale-prism-pourrait-couter-cher-a-l-industrie-high-tech-americaine/

Cette affaire aura toutefois permis d’exposer la valeur des métadonnées, élément plutôt inconnu du grand public, et certains comme le MIT commencent à proposer des outils (https://immersion.media.mit.edu/) permettant de mieux comprendre quelles informations les métadonnées contiennent et ce qu’elles peuvent révéler sur votre personne.

snow1

Le problème principal est que « la donnée » est une notion difficile à interpréter en droit (Source : http://blog.lefigaro.fr/bensoussan/2010/05/la-propriete-des-donnees.html/), et donc encore moins « la métadonnée ». En effet, s’il est encore assez simple d’identifier qui est le propriétaire d’une donnée, pour une métadonnée, c’est beaucoup moins évident car en dehors de celles que vous avez saisies, comme l’adresse email de votre destinataire ou l’intitulé du message, celles-ci peuvent être conçues par les outils techniques de l’entreprise ou des entreprises par lesquelles vos messages transitent. Il est en effet nécessaire de chercher la nature de chaque élément de la métadonnée pour identifier les droits qui y sont attachés. Pas simple…

Surtout que les métadonnées et les données sont forcément exploitées durant leur transit entre deux systèmes de messagerie. Google vient d’ailleurs de faire l’objet d’une polémique aux Etats-Unis sur le traitement relatif aux données où chaque manipulation, même pour des raisons légitimes, peut être rapidement sortie de son contexte (http://www.20minutes.fr/web/1210387-20130815-fausse-polemique-gmail-non-respect-vie-privee)

Vie privée ou confidentialité professionnelle ?

Mais quels sont véritablement les risques et n’y a-t-il pas une confusion entre le respect de la « confidentialité » et le respect de la « vie privée » sur Internet ?

La première chose qu’il convient de distinguer à mon sens serait déjà de savoir qui on parle (d’une entreprise ou d’un particulier ?), car les attentes ne sont pas forcément les mêmes. Pour l’entreprise, les risques d’utilisation d’une messagerie sont des risques financiers. On peut les identifier en trois thèmes, liés à la confidentialité :

  • La protection de la propriété intellectuelle, brevets ou innovations
  • Le secret des correspondances entre le client et un interlocuteur (par exemple, dans la relation médecin-patient)
  • La protection des messages à caractère financier (acquisition, marchés, etc.) pouvant donner lieu à une certaine forme de délit d’initié

Pour les particuliers, les attentes sont différentes, et concernent surtout deux sujets principaux, tous les deux liés à la notion de vie privée :

  • Une meilleure information et une protection sur la traçabilité
  • Une meilleure information et une protection sur la revente des données personnelles

Mais d’un autre côté, ces deux groupes (l’entreprise et le particulier) s’accorderont à penser qu’Internet leur est également indispensable pour exposer un certain nombre d’information leur permettant d’améliorer leur réputation sur Internet et d’accentuer leur présence sur les différents réseaux sociaux.

Le risque est-il réel ?

Certainement oui. Récemment, une enquête menée par la CNIL a abouti à la conclusion que 99% des sites consultés collectent des informations personnelles. (http://www.lemonde.fr/technologies/article/2013/08/13/la-cnil-epingle-les-sites-ne-fournissant-aucune-information-sur-la-protection-des-donnees_3460872_651865.html). 20% des applications mobiles ne donnent aucune information concernant le traitement qu’il sera fait de ces données ou comment y avoir accès. Pour les 250 sites web régulièrement consultés par les français, mobiles ou non, cette valeur est d’un peu moins de 10%.

Agir plutôt que se plaindre

Pourtant, il existe de nombreux moyens de se protéger afin d’éviter de divulguer trop d’informations personnelles sur Internet liée à la protection de la vie privée. A titre d’exemple, PrivacyFix (d’AVG) (http://www.privacyfix.com) est un excellent petit logiciel permettant d’analyser les données personnelles collectées à partir de votre navigateur Internet et de reconfigurer automatiquement le service ou le navigateur afin d’éviter des collectes non sollicitées. Vous pouvez en profiter pour installer sur votre navigateur « healthbar Privacyfix » qui vous permettra d’identifier sur un certain nombre de sites connus les risques que vous prenez. La capture ci-dessous présente respectivement l’analyse de PrivacyFix depuis mon navigateur lorsque je me connecte à Linkedin, Facebook et Twitter (en haut en bas).

snow2

Concernant les données, que l’on peut catégoriser comme suit :

  • Messages électroniques
  • Communications instantanées et VoIP
  • Documents et données
  • Applications, processus et paramètres
  • Archives

Seul le chiffrement est la bonne parade dès lors que ces informations sont confiées de manière volontaire ou non à un tiers. Personnellement, j’évite d’utiliser des logiciels de chiffrement fournis par des services en ligne ou des sociétés commerciales, et privilégie principalement les solutions dont le code source est ouvert à la lecture de spécialistes, ou de logiciels mis à disposition des communautés. Mes deux préférés sont TrueCrypt pour chiffrer les données sensibles sur mon disque, et lorsque je dois émettre à un tiers, je préfère utiliser mon propre logiciel de chiffrement, plutôt que la solution de l’éditeur, basé sur PGP. Une liste des outils pouvant être utilisés est disponible ici :  http://lifehacker.com/5677725/five-best-file-encryption-tools

De même, je prends certaines précautions lors de mes envois et réception de messages : La première précaution que je prends est que je préfère utiliser des messageries dont je connais les administrateurs. La seconde étant que je fais toujours attention à ce que les intitulés de mes messages ne contiennent aucune information sensible pouvant amener à donner un indice sur la valeur du contenu. La dernière étant que toute donnée ayant de la valeur est forcément dans une pièce-jointe chiffrée, et ni directement en clair dans le corps du message ou simplement attachée en pièce jointe en clair.

Enfin, il reste les données vraiment confidentielles dont je parlais au début de mon article, celles des entreprises. J’évoque souvent aux sociétés qui me demandent comment sécuriser leurs données numériques qu’elles ne se posent pas les mêmes questions lorsqu’elles utilisent leur téléphone opéré par un réseau public. Soyons clair, tout ce qui sort de l’entreprise amène à prendre un risque en termes de confidentialité des données, dès lors qu’on n’a aucun moyen de contrôle fiable sur le tiers qui sert d’intermédiaire. La confidentialité des données sur Internet ou sur le Cloud Computing est donc tout à fait illusoire.

Remettre l’intranet au goût du jour ?

Ce n’est pas parce qu’une technologie apparaît dans le paysage informatique, comme le Cloud Computing, qu’elle pourra remplacer à elle seule toutes les technologies précédentes. Comme je l’évoquais, pour assurer la confidentialité des données, il est nécessaire de maîtriser la sécurité de bout-en-bout. Une solution de collaboration complète, basée sur un Intranet, avec une connexion VPN et un client léger reste la meilleure plateforme pour assurer le travail collaboratif et la sécurité des données. Demandez leur avis aux dirigeants nord-coréens !

Dommage que l’Intranet soit un sujet qui enthousiasme peu les jeunes générations, qui privilégient le Cloud Computing comme la solution miracle à tous les problèmes. Mais c’est peut-être que nos jeunes informaticiens sont aussi beaucoup moins sensibilisés aux notions de confidentialité et de vie privée que leurs aînés. Mais ils ont aussi des excuses : souvent leur vie numérique a commencé avant même leur naissance, avec un papa ou une maman fiers de poster sur Facebook la première échographie. Comment voulez-vous leur parler de vie privée après ça ?

Quel logiciel utiliser pour créer un Intranet sécurisé ? Fondamentalement, n’importe lequel, sauf si bien entendu vous demandez son avis à l’agence de sécurité nationale américaine (NSA) qui semble avoir une dent contre SharePoint depuis l’affaire Edward Snowden (http://www.theregister.co.uk/2013/07/19/nsa_sharepoint_leaks/). Ce qui en soit est totalement injustifié, car cela reviendrait à accuser le fournisseur de la serrure qu’un voleur ait réussi à faire un double de votre clé. Vous l’aurez compris : votre sécurité ne pourra se reposer à elle seule sur un logiciel, mais surtout sur la formation et la qualité des équipes et des procédures que vous dévouerez à cette tâche. A vous d’en fixer le prix.

IT Pro Magazine, Septembre 2013

Microsoft Office 365 ou Google Apps : Quelle suite est la plus adaptée à votre entreprise ? (1ère partie)

26 décembre 2013

Arnaud Alcabez

Préambule

Microsoft Office 365 et Google Apps for Business sont deux services basés sur le Cloud Computing qui fournissent à des petites, moyennes et grandes entreprises des outils de communications et des outils bureautiques à coût à l’usage. Toutefois, Google Apps et Microsoft Office 365 ont des différences significatives qui peuvent rendre difficile la tâche de choisir entre ces deux offres.

Ayant eu plusieurs vies en informatique, mon métier m’a progressivement amené à faire du conseil en stratégie informatique et bien qu’ayant eu une trajectoire depuis une vingtaine d’année liée à Exchange puis Office 365, j’avoue que j’ai été très déçu jusqu’à présent par ce que j’ai pu trouvé dans la presse ou en échangeant avec mes collègues. En effet, sorti des combats de chapelles entre les pro-Microsoft et les pro-Google, j’ai eu beaucoup de mal à avoir une vision claire des capacités de chacune des offres. D’un point de vue partial, il est difficile d’avoir des données précises des parts de marché de chaque éditeur, de ce qui est financé et de ce qui est réellement payé par les entreprises. D’un point de vue factuel, les deux solutions ayant été choisies par des clients, et je vous invite à consulter les revues de presse vantant les implémentations réussies de Microsoft Office 365 et de Google Business Apps dans des entreprises de petite, moyenne et grande taille, il faut bien reconnaître que chacune répond aux besoins qui lui sont confiés.

J’ai donc considéré que pour avoir une vue impartiale de chacune des solutions, il était nécessaire de déployer et d’utiliser pendant plusieurs mois les deux offres, celle de Microsoft et celle de Google. Une fois déployées, il fallait encore déterminer une grille commune de fonctionnalités que je devais comparer, et de donner un ordonnancement à chacune des catégories testées :

  • Tarification
  • Niveaux de services
  • Couverture du service (pour les utilisateurs, pour la contractualisation, et compatibilité avec les régulations)
  • Messagerie classique et archivage
  • Messagerie instantanée, conférences en ligne, messagerie vocale
  • Collaboration en ligne
  • Intégration avec l’intranet
  • Intégration avec Active Directory
  • Support des périphériques mobiles
  • Support du mode déconnecté
  • Administration et prérequis d’installation
  • Interface utilisateur et facilité d’usage
  • Stockage en ligne

Ce mois, nous allons commencer par comparer trois catégories : la tarification, les statistiques d’interruption et de transparence du service, et la couverture du service.

Les réelles différences : Comprendre les besoins de votre entreprise

Une infrastructure de type Cloud Computing est attractive pour une raison principale, même si ce n’est pas la seule : C’est une manière moins coûteuse de gérer vos données de votre entreprise. Vous laissez au service la responsabilité d’opérer les serveurs, la configuration des applications et la gestion de la plateforme.

Choisir entre Google Apps for Business et Microsoft Office 365 revient à déterminer si votre entreprise est à la recherche de l’amélioration des processus opérationnels (en anglais Business Process Improvement ou BPI) – http://en.wikipedia.org/wiki/Business_process_improvement – ou la refonte des processus opérationnels (en anglais Business Process Re-Engineering ou BPR) – http://en.wikipedia.org/wiki/Business_process_engineering.

Pour résumer les différences fondamentales entre le BPI et le BPR, le BPI est l’amélioration de pratiques déjà existantes là où le BPR est plus révolutionnaire qu’évolutionnaire. Pour le BPR, il s’agit de disséquer les worflows métiers existants et de les refondre du sol au plafond. Google Apps for Business adopte une approche proche du BPI, où les Google Apps viendront remplacer des processus déjà existants dans l’entreprise pour en améliorer la performance par rapport au coût du service gérant ces processus. Google Apps for Business peuvent certainement être utilisé pour favoriser le BPR, mais elle ne sera clairement pas la plateforme idéale pour aller jusqu’au bout de cette approche. Microsoft Office 365, en revanche, est un outil idéal pour mettre en œuvre le BPR, avec des fonctionnalités plus avancées et des plateformes personnalisables telles que les aiment les entreprises pour répondre aux besoins variés de leurs utilisateurs.

Pour démarrer un processus décisionnel pour choisir entre Microsoft Office 365 et Google Apps for Business, il est nécessaire que vous vous interrogiez en priorité sur le véritable but derrière le remplacement de vos systèmes existants. Tant que vous êtes satisfait du niveau de service fourni par votre système actuel et que vous désirez néanmoins le remplacer pour des raisons de coûts, ou si votre motivation est de fournir une nouvelle génération d’outils qui rendront vos utilisateurs plus efficaces dans leur travail, vous aurez déjà répondu à la question du choix de la bonne solution. Reste que ces choix devront faire l’objet d’une analyse minutieuse de communication dans votre entreprise, et plus particulièrement en direction de vos métiers afin qu’ils soient eux-mêmes convaincus du bien fondé de la solution que vous aurez retenu.

Commençons par le plus important : La tarification

Le gagnant : Google Apps

Naturellement, il y a une grande différence en termes de tarification. On ne va pas se mentir : Microsoft Office 365 est jusqu’à 120% plus cher que l’offre (le plan) le plus cher de Google. Je ne dis pas que le prix est toujours le meilleur indicateur pour la sélection d’une solution, mais le budget reste toujours un facteur très important dans la décision.

La seule chose que Microsoft Office 365 et Google Apps for Business aient en commun dans leurs plans est que chaque offre est facturée mensuellement et comprennent pour chaque utilisateur une certaine quantité de stockage (25 Go). Il est donc assez facile de comparer les offres des deux éditeurs.

Google sait rester simple pour être efficace : La société ne propose que deux offres pour les entreprises avec aucune limite en termes d’utilisateurs pour chacun des plans. Notez que les tarifs ci-dessous sont donnés en dollars et se comprennent par utilisateur :

 

Google Apps for Business

Google Apps for Business avec Vault

Prix par utilisateur

$5/mois ou $50/an

$10/mois

Nombre maximum d’utilisateurs

Illimité

Illimité

Capacité de la boîte aux lettres par utilisateur

25 Go

25 Go

Capacité Google Drive fournie

1 Go

1 Go

Taille limite des attachements par message électronique

50 Mo

50 Mo

Support des archives

Non

Oui

Table 1 : Tarif des offres Google Apps for Business

A la vue de ce tableau, les offres proposées par Google sont presque identiques, si ce n’est la fourniture de Vault qui revient à doubler le prix du service. Toutefois, se passer de Vault pour une entreprise ne sera difficilement possible en France. En effet, Vault apporte un service fondamental d’e-Discovery, c’est-à-dire la capacité pour des administrateurs ou des auditeurs de rechercher un message dans Gmail ou la messagerie instantanée au travers de toute l’organisation. En clair, avec Vault, vous payez Google pour que la société archive l’ensemble des emails et des journaux de messagerie instantanée, ce qui sera indispensable si votre entreprise est amenée à être auditée par un organisme extérieur, ou si elle doit fournir des pièces lors d’une citation à comparaitre. Vault est le successeur de Postini Message Discovery (connu également sous le nom de Google Message Discovery). Contrairement à ce qu’on peut lire parfois dans la presse, Vault n’est absolument pas un outil de récupération d’urgence des boîtes aux lettres.

Microsoft de son côté préfère proposer un plan de tarification plus large, quitte à parfois susciter bien des questions de la part des clients intéressés. La fourchette de prix démarre à partir de $4 pour aller jusqu’à $22 par mois. Cinq offres sur les six proposées supportent un nombre d’utilisateurs jusqu’à 50.000 (en d’autres mots, presque illimité). Pour rester dans une analyse permettant de comparer aisément Google à Microsoft, nous allons nous limiter aux quatre offres proposées aux entreprises de taille moyenne et de grande taille. Microsoft les désigne par un code « E » pour « Enterprise » :

 

E1

E2

E3

E4

Prix par utilisateur

$8/mois

$14/mois

$20/mois

$22/mois

Capacité de la boîte aux lettres par utilisateur

25 Go

25 Go

25 Go

25 Go

Editeur de documents en ligne

Non

Oui

Oui

Oui

Intégration à Active Directory

Oui

Oui

Oui

Oui

Support des archives

Non

Non

Oui

Oui

Souscription à la version Office 2013 bureautique

Non

Non

Oui

Oui

Fonctionnalités VoIP Entreprise

Non

Non

Non

Oui

Table 2 : Tarif des offres Microsoft Office 365 pour les entreprises

La principale différence entre Office 365 E1 et E2 concerne la collaboration en ligne : Le plan E1 fourni uniquement la possibilité d’afficher des documents Microsoft Word, Microsoft Excel, etc. mais pas de les modifier. Le plan E2 en revanche permet aux utilisateurs de créer ou de modifier directement les documents, à l’instar de Google Drive. Les offres E3 et E4 incluent la souscription à Microsoft Office 2013 (lequel pourra être installé localement sur le poste de travail de l’utilisateur). Ces plans proposent également l’archivage légal (ce qui entend que l’administrateur peut choisir de conserver un message situé dans la boîte de réception ou dans les éléments supprimés d’un utilisateur indéfiniment même si ce dernier tente de l’altérer ou de le supprimer). Enfin, les plans E3 et E4 supportent également l’archivage des messages (comme Google Vault) et le service de messagerie vocale. En comparant avec les offres de Google, le plan E3 de Microsoft est celui qui s’approche le plus des fonctionnalités offertes par le plan Google Apps for Business avec Vault.

La comparaison entre les plans E3 et les plans E4 d’Office 365 est moins évidente. Le plan E4 remplace Lync Online par une solution on premises Lync Server, afin de pouvoir s’interconnecter avec le système téléphonique (PBX) pour supporter les appels entrants et sortants traditionnels. Si on peut considérer que cette stratégie de Microsoft permet de mieux interfacer son offre E4 avec l’existant, la démarche s’oppose à la logique qui vous a amené à aller vers le Cloud : Simplifier votre infrastructure.

En conclusion sur ce sujet, Google Apps for Business est moins cher à adopter, moins cher à maintenir, et moins cher à opérer que son concurrent. Microsoft Office 365 n’est pas seulement plus cher que Google Apps for Business, mais il n’est pas moins cher que les versions d’Exchange, de SharePoint et Microsoft Office que vous souhaitez remplacer. Si votre stratégie consiste à déployer vos services de messagerie et de collaboration sur le nuage pour réduire vos coûts et vos équipes informatiques impliquées à la maintenance, il est clair que Google Apps for Business est le gagnant.

Respect des niveaux de services et engagement de l’éditeur

Le gagnant : Egalité

En regardant les rapports d’incidents sur Microsoft Office 365 sur une période de 151 jours (entre le 23/9/2012 et le  02/02/2013), 18 concernent le service de messagerie Exchange. Ces incidents et les temps d’arrêt planifiés, représentent un total de 4.503 minutes d’interruption, soit 3 jours, 3 heures et 3 minutes. Cela revient à un niveau de disponibilité de 97,929% pour le service de Microsoft durant cette période, ce qui n’est pas exactement ce qui est promis par l’éditeur en matière d’engagement à 99,9%.

Par comparaison, le service Gmail a un niveau de disponibilité de 99.983%. Cette disponibilité correspond à une interruption du service pendant 44 minutes. En résumé, pour chaque minute d’interruption de Gmail, Exchange Online est en panne pendant 103 minutes.

Google publie publiquement ses informations sur le niveau de disponibilité via une page intitulée Google Apps Status Dashboard (http://www.google.com/appsstatus) sur laquelle tout le monde peut se connecter, même s’il n’est pas client. Le tableau de bord affiche les informations de performance en temps réel pour tous les services Google Apps. Google met à jour le tableau de bord avec informations sur les performances, pour s’en servir en tant que outil de promotion marketing.

Microsoft dispose d’un tableau de bord similaire – mais contrairement à la page publique Google Apps Status Dashboard de Google, le tableau de bord Microsoft est protégé, et uniquement accessible aux utilisateurs qui sont déjà clients de l’offre Microsoft Office 365. Quelque part, cela empêche les clients potentiels de Microsoft Office 365 de faire des recherches sur les niveaux réels de disponibilité du service avant de prendre une décision d’achat. En outre, cette page empêche quiconque qui n’est pas administrateur du domaine de messagerie Office 365 d’accéder au tableau de bord. Ainsi, sans l’aide d’un administrateur, les principaux décideurs et utilisateurs stratégiques de l’entreprise qui utilisent Microsoft Office 365 ne peuvent vérifier si le service de messagerie fonctionne correctement ou non. Microsoft ne publie pas quel pourcentage de ses utilisateurs sont affectés par des pannes, et ne concerne que les régions ont été touchés et se limite à indiquer la région concernée tant qu’ils ne peuvent déterminer avec exactitude l’origine du problème.

Toutefois, Microsoft offre un contrat de niveau de service financièrement soutenu (SLA) lorsque Microsoft Office 365 descend en dessous de 99,9% de disponibilité. Les SLA d’Office 365 sont complets et simples à comprendre à propos des désagréments subis, par composant et par région. Au contraire, Google ne propose que des crédits de service à la fin du contrat annuel (et aucun remboursement) et reste beaucoup plus succinct sur la nature des incidents rencontrés.

Plus dérangeante est l’approche de Google en manière de disponibilité du service Google Apps for Business. En effet, Google booste ses chiffres d’uptime en combinant les services aux consommateurs et des entreprises. De plus, Google teste ses produits en version bêta avec les utilisateurs de Google Apps, mais ceux-ci ne sont pas couverts par le SLA. Enfin, Le SLA ne couvre que douze services en ligne (les services de synchronisation hors connexion ne sont pas couverts par le SLA), et Google dispose d’une méthode de calcul très particulière pour identifier un temps d’interruption : « Les temps d’arrêt est défini comme un taux d’erreur de l’utilisateur de plus de 5% » (http://www.google.com/apps/intl/en/terms/sla.html).

En conclusion, parce que Google et Microsoft ne semblent pas avoir la même définition du temps d’arrêt et que la couverture des services n’est pas la même, il est impossible de déterminer un gagnant de manière claire dans cette catégorie.

Couverture du service (utilisateurs, contractants et autres régulations)

Couverture du service pour les utilisateurs

Le gagnant : Microsoft Office 365

Sur la couverture en termes de pays, les deux géants n’ont encore pas la même approche. Google Apps for Business s’appuie sur une liste d’exclusion (Cuba, l’Iran, la Corée du Nord, le Soudan et la Syrie), directement liée à la liste noire des pays définie par le gouvernement américain. La liste d’exclusion n’est d’ailleurs pas exhaustive, et n’est pas détaillée par service.

Toutefois, le téléchargement des applications, notamment pour les mobiles peuvent être interdit (comme l’ont appris à leur dépend des utilisateurs situés en Thaïlande ou au Pakistan), même si techniquement, il existe le plus souvent des méthodes de contournement, elles peuvent être considérées comme illégales dans les pays concernés.

Microsoft Office 365 dispose d’une liste claire et concise en un seul document des pays dans lesquels le service peut être consommé ou pas, de manière intégrale ou limitée. http://www.office365advisors.com/office-365-country-licensing-restrictions/

Couverture du service pour les contractants

Le gagnant : Egalité

Bien qu’il soit possible d’utiliser le service dans de nombreux pays, la liste des pays pouvant acheter le service est plus restrictive, et dépend des accords commerciaux, fiscaux et légaux avec les états concernés. Google Apps peut être contracté dans 96 pays et Microsoft Office 365 peut être contracté dans 88 pays (http://new.googlepartnerconnect.com/Home/partner-program-support-countries).

Parmi les 106 pays couverts par l’une ou l’autre des solutions, 18 pays ne peuvent contracter un service qu’avec Google, et 10 pays ne peuvent contracter un service qu’avec Microsoft. Ainsi, pour les sociétés situées en Albanie, aux Samoa Américaines, en Arménie, au Bangladesh, en Bolivie, en Bosnie-Herzégovine, aux Iles Vierges anglaises, au Cambodge, à Gibraltar, à Guam, au Laos, à Monaco, en Mongolie, aux Philippines, à San Marin, aux Iles Vierges américaines, au Vatican et au Vietnam, à moins qu’elles disposent de la possibilité de signer leur contrat  dans un autre pays, la question ne se pose pas, seul Google Apps est disponible. D’un autre côté, pour les sociétés situées en Algérie, en Azerbaïdjan, au Bahreïn, en République Dominicaine, au Kazakhstan, au Maroc, au Paraguay, à Trinidad et Tobago, en Uruguay, et au Venezuela, seul Office 365 est disponible.

Toutes les informations indiquées s’appuient sur les données officielles fournies par les deux éditeurs au 14 mai 2013.

Autres contraintes en matière de régulation

Le gagnant : Egalité

Google ne précise pas l’emplacement de ses centres de données, ni où se trouvent les données que vous y stockerez. La société se limite à indiquer que ses centres de données sont situés dans des pays « démocratiques », bien que cette information soit tout à fait suggestive et non reconnue en droit. Microsoft est plus précis sur l’emplacement des données de l’utilisateur. Les centres de données sont répartis sur des zones continentales séparées, avec un nombre de centres réduits. Par exemple, en ce qui concerne la France, les données sont hébergées dans deux pays de l’Union Economique Européenne : L’Irlande (Dublin) pour le centre de données principal, et les Pays-Bas (Amsterdam) pour le centre de données de secours.

Toutefois, quelle que soit la localisation des données, comme tous les services électroniques internationaux, les deux sociétés sont engagées dans les accords d’autorisation de transferts de données dans le cas d’une investigation mandatée par les services d’enquêtes des pays concernés par ces accords, connus sous les noms de Patriot Act et de EU Safe Habour.

Google comme Microsoft proposent des tarifs éducation, mais les données sont mutualisées sur les mêmes environnements que celles des autres sociétés.

Les deux sociétés proposent également des offres pour les organisations gouvernementales, mais uniquement aux Etats-Unis. Dans les deux cas, ces services sont cloisonnés des autres activités, et ont tous les deux reçus la certification et l’accréditation FISMA (Federal Information Security Management Act) (FISMA) pour héberger des services de l’Administration Générale des Services U.S.

Je vous donne rendez-vous au prochain numéro pour continuer notre comparaison entre les deux offres de services en ligne, avec du lourd : La comparaison des fonctionnalités. D’après vous, qui sera le gagnant ?

IT Pro Magazine, Septembre 2013

Note: Les valeurs indiquées dans cet article correspondent à Mai 2013 et sont susceptibles de changer en fonction des annonces des éditeurs.

Stratégies – 100 grammes qui changèrent le monde

26 décembre 2013

Arnaud Alcabez

Bring Your Own Device (BYOD) aussi appelé Bring Your Own Technology (BYOT), Bring Your Own Phone (BYOP) et Bring Your Own PC (BYOPC) signifient que la politique de sécurité de l’entreprise permet aux collaborateurs de venir avec leurs propres appareils mobiles sur leur lieu de travail et d’utiliser ces dispositifs pour accéder aux informations et aux applications de l’entreprise pour laquelle ils sont employés.

Le terme BYOD a été mentionné dans un article pour la première fois (http://www.vs.inf.ethz.ch/publ/papers/rohs-byod-2004.pdf) lors de l’UBICOMP 2004, une conférence sur l’informatique ubiquitaire, et la première analyse réelle du phénomène est attribuée à Cisco et Intel au travers d’une étude menée entre 2009 et 2010 : http://www.govinfosecurity.com/webinars/mobile-learn-from-intels-ciso-on-securing-employee-owned-devices-w-264

100 grammes 1L’acceptation du BYOD au sein des entreprises n’est pas la même selon les marchés. Ainsi, pour les pays en fort développement économique, tels que le Brésil, la Russie, l’Inde, les Emirats Arabes Unis et la Malaisie, on estime que 75% des collaborateurs utilisent leur propre technologie au travail. Pour les autres pays développés, la croissance serait plus modérée, avec 44% d’utilisateurs concernés. Ainsi, la progression du BYOD dans les entreprises est liée à plusieurs facteurs déterminants :

  • Le développement économique du pays ou de la société,
  • La séparation du temps consacré à la vie privée et à la vie professionnelle,
  • La séparation des usages privés et professionnels

De plus, en Europe, nous avons un historique informatique lourd dont il nous faut gérer l’héritage et qui ralentit de fait l’acceptation de ce nouveau modèle d’utilisation des ressources informatiques :

  • L’investissement déjà consenti dans les entreprises sur les équipements informatiques
  • L’importance significative de la notion de confidentialité des données personnelles et professionnelles
  • Les cadres législatifs très fragmentés et néanmoins assez stricts en Europe, avec l’absence d’une politique commune pour répondre aux attentes et aux craintes des utilisateurs

Pour les entreprises, il s’agit d’un vrai challenge d’intégration, et dont le problème principal consiste en un manque de visibilité sur la transformation des usages internes vers un nouveau modèle. Plus précisément, si les  collaborateurs et la direction des entreprises sont plutôt favorables à l’utilisation de périphériques mobiles personnels dans leur ensemble, la direction des systèmes d’information en tant que fournisseur du système informatique et garant de son bon fonctionnement et de sa sécurité aura une certaine réserve à mettre en œuvre ces technologies sans que l’entreprise elle-même n’ait à redéfinir les concepts de sécurité de l’information et de cadre de travail.

Dans cette perspective, la DSI devra détailler les différentes stratégies que l’entreprise peut initier pour permettre à ses collaborateurs d’utiliser des périphériques mobiles dans le cadre de leur usage professionnel et privé.

Dans la réalité, on peut distinguer un certain nombre de tendances ou que j’ai essayé de synthétiser dans le tableau ci-dessous. Aujourd’hui, elles sont au nombre de sept. Leur premier différentiateur concerne la propriété des objets: celle du périphérique, celle de l’application utilisée, et celle du réseau. Leur second différentiateur concerne la supervision des transactions : sera-t-elle au niveau physique ou au niveau applicatif ?

Appellation

Nom complet

Description

Propriétaire du périphérique

Propriétaire des applications

Propriétaire du réseau poste de travail

Niveau de gestion pour l’entreprise

 

Modèle standard

Ce modèle est celui classique qui considère que les périphériques dits mobiles sont gérés comme des postes de travail bureautiques traditionnels

Entreprise

Entreprise

Entreprise

Périphérique

BYOD

Bring Your Own Device

L’entreprise permet aux utilisateurs d’apporter leurs périphériques personnels pour se connecter aux services délivrés par l’entreprise. Lorsque cette stratégie est étendue à d’autres types d’appareils (stockage, etc.) on parle alors de BYOT « Bring Your Own Technology »

Utilisateur

Utilisateur
et Entreprise

Entreprise

Périphérique (avec l’accord de l’utilisateur)

BYOA ou BYON

Bring Your Own Access
Bring Your Own Network

L’entreprise ne gère plus de parc informatique, ni de réseau de type poste de travail. Chaque utilisateur est libre de contracter avec un opérateur réseau et de choisir la nature de sa connexion (WiFi, femtocell, tethering). Ce modèle se comprend si l’ensemble des applications de l’entreprise sont accessibles via un accès par Internet

Utilisateur

Utilisateur et/ou Entreprise

Utilisateur

Application

PYCA

Push Your Corporate Application

L’entreprise ne gère plus de parc informatique au sens des périphériques utilisés, et se préoccupe de mettre en œuvre et de tenir à jour un magasin d’applications qui lui appartient dans lequel l’utilisateur vient se servir s’il en a le droit

Utilisateur

Entreprise

Entreprise

Application

CYOD

Choose Your Own Device

L’entreprise permet à l’utilisateur de choisir un périphérique dans une liste délimitée qu’elle tient à disposition

Entreprise

Entreprise

Entreprise

Périphérique

COPE

Company Owned, Personally Enabled

L’entreprise choisit le périphérique, mais permet à l’utilisateur de se servir à des fins personnelles en y installant des applications dont il est le propriétaire

Entreprise

Utilisateur et/ou Entreprise

Entreprise

Périphérique

BYOA ou BYOS

Bring Your Own Application
Bring Your Own Software

L’utilisateur peut se servir d’applications personnelles dont il est le propriétaire ou l’utilisateur légal pour travailler dans le cadre de l’entreprise

Utilisateur et/ou Entreprise

Utilisateur

Entreprise

Application

 

Finalement, il n’existe pas de bon et de mauvais modèle concernant l’intégration du BYOD dans les entreprises, chacune allant forcément trouver un modèle qui lui correspond. D’ailleurs, peut-être que la solution se trouve dans de futurs périphériques qui s’avèreront être compatibles avec toutes ces politiques de sécurité mobile.

Les sociétés BlackBerry et Thalès ont d’ailleurs chacune tenté de proposer des périphériques mobiles à politique mixte. Par exemple, BlackBerry Balance (http://fr.blackberry.com/business/software/blackberry-balance.html) pour le BlackBerry Z10 et Teopad pour Android (http://fr.wikipedia.org/wiki/teopad) par Thalès.

Il reste néanmoins qu’aucune des grandes entreprises influentes dans le marché de la mobilité ne semblent être très intéressées à développer une approche liée aux exigences des entreprises européennes pour leur permettre de mieux intégrer le BYOD comme une composante de transformation de leur système d’information. Et c’est une première ! Après avoir été chouchoutées pendant des années par les éditeurs de logiciels et les constructeurs qui voyaient dans les sociétés les grands commanditaires de matériel informatique, et qui se pliaient à leur moindre exigence, le monde a définitivement changé.

Comme les responsables des grands systèmes informatiques ont fini par laisser le système informatique aux administrateurs « micro-informatique », ces derniers devront sans doute s’effacer demain au profit d’une nouvelle équipe informatique, plus à même d’avoir un modèle de pensée propre à gérer le nomadisme, la propriété et la sécurité. C’est la vie…

IT Pro Magazine, Septembre 2013

Stratégies – Et la ville devint intelligente

26 décembre 2013

Arnaud Alcabez

Aujourd’hui, seulement 2 % de la surface de la terre sont occupés par les villes. Or, d’ici 2050, elles accueilleront 70 % de la population mondiale et seront à l’origine de 80 % des émissions de CO2.

Ainsi, selon le Conseil économique social et environnemental (CESR), la population francilienne en 2050 aura augmenté d’environ trois millions d’habitants pour atteindre 15 millions d’individus en Ile-de-France. (75 à 80 millions en France, pour 9 milliards dans le monde). Que dire si vous vous sentez déjà à l’étroit dans les transports en commun ?

Il est facile d’imaginer les effets collatéraux d’une explosion de la démographie du Grand Paris, sur le travail, les transports, la distribution, l’alimentation ou le logement…

Ainsi, la qualité de vie va devenir, comme dans toutes les grandes cités avec lesquelles Paris sera en compétition, un défi permanent. Nous n’avons pas d’autres choix que de faire en sorte que la vie en région parisienne soit agréable, faute de quoi, le nombre d’actifs dynamiques quittant le bassin francilien n’aura cesse de croître. Parallèlement, nous aurons également à nous occuper de nos aînés : le nombre des franciliens âgés de 75 ans devrait doubler dès 2030, et il faut prévoir que le nombre de maisons de retraite soit multiplié par quatre d’ici 2050.

 

De part cette démographie croissante, outre les questions énergétiques, les villes, sont d’ores et déjà confrontées à de nombreux problèmes de ressources (espace, mobilité, financement, etc.), problèmes auxquels elles doivent très rapidement trouver des réponses pour demeurer attractives aux yeux des nouveaux talents, des entrepreneurs, des créateurs, des investisseurs… bref, de tous ceux qui contribuent à sa vitalité.

En ce qui concerne le coût de l’énergie, et en réponse à l’engagement de l’Union Européenne à diminuer ses émissions de CO2 de 80 % entre 1990 et 2050, les énergies renouvelables devraient représenter 50 % de la production sur le Vieux Continent, sachant qu’aujourd’hui, 50 % de la production est assurée par les énergies fossiles, 28 % par le nucléaire. Cette évolution entraînera une forte et continue hausse des tarifs de l’électricité pendant les vingt ans à venir, puis les prix grimperont plus doucement jusqu’en 2050 en raison des coûts d’investissements pour déployer les nouvelles infrastructures énergétiques et la diminution de l’utilisation des installations existantes, qui abaisse leur rentabilité.

 

Dans un tel contexte, un nouveau concept émerge progressivement : celui des cités intelligentes (ou « Smart Cities »). Des villes modernes, capables de mettre en œuvre des infrastructures (d’eau, électricité, gaz, transports, services d’urgence, services publics, bâtiments, etc.) communicantes et durables pour améliorer le confort des citoyens, être plus efficaces, tout en se développant dans le respect de l’environnement.

image 1

Le développement des cités intelligentes est d’abord une réponse aux aspirations des habitants en termes d’objectifs économiques, environnementaux et sociaux :

Objectifs économiques (Efficacité)

  • Améliorer le partage d’informations et développer la coordination entre les différents services de la ville
  • Améliorer la qualité du service et l’utilisation des ressources opérationnelles
  • Optimiser les investissements
  • Accroitre la réactivité de la vile face à des événements imprévus

Objectifs environnementaux (Durabilité)

  • Réduire la consommation d’énergie et les émissions de gaz à effet de serre
  • Encourager l’utilisation des énergies renouvelables
  • Optimiser l’utilisation des ressources naturelles
  • Réduire les besoins en investissements lourds
  • Respecter l’héritable et préparer le futur de la ville

Objectifs sociaux (Viabilité)

  • Proposer une meilleure qualité de vie aux habitants
  • Développer de nouveaux services innovants pour les citoyens, pour les touristes et les entreprises
  • Être plus attractive et compétitive face aux autres viles

Pour atteindre ces objectifs, de nombreuses adaptations devront être réalisées dans plusieurs domaines techniques :

En matière de gestion de l’énergie

  • Déploiement des réseaux intelligents (SmartGrids)
    • Systèmes avancés de gestion du réseau en temps réel
    • Automatisation, flexibilité des équipements, gestion des actifs
    • Mesure et gestion interactive de l’effacement (adapter la demande à l’offre)
    • Intégration des énergies renouvelables
    • Améliorer les distributeurs pour une meilleure gestion de l’énergie jusqu’au périphérique

En matière de gestion des bâtiments et des logements

  • Systèmes intégrés de gestion du bâtiment (sécurité, énergie…)
  • Contrôle des consommations et tableaux de bords (énergie et CO2)
  • Pilotage intelligent des logements
  • Connexion au SmartGrids

En matière de gestion de la mobilité

  • Infrastructures de recharge, pilotage de la charge, services de gestion pour véhicules électriques
  • Gestion auto-adaptative du trafic
  • Améliorer la mobilité en ville et rendre le trafic plus fluide avec les voitures connectées
  • Favoriser l’usage des transports publics, collectifs ou partagés, et gérer la multimodalité
  • Péages urbains
  • Systèmes de gestion intégrée de la mobilité et de l’information voyageurs en temps réel

En matière de gestion de l’eau

  • Réseaux intelligents
    • Gestion de la distribution
    • Détection des fuites
    • Qualité de l’eau
    • Systèmes de contrôle et de sécurité
    • Gestion des événements naturels

En matière de gestion des services publics

  • Gestion des événements graves
  • Sécurité publique et vidéosurveillance
  • Système de gestion de l’éclairage public
  • Information aux citoyens et aux touristes

En matière de gestion intégrée (ou « services transverses »)

  • Plateforme de gestion intégrée des applications urbaines (mobilité, éclairage public, etc.)
  • Systèmes d’information et de gestion de l’énergie et du CO2
  • Service interactifs et expertise météo

Les enjeux économiques sont colossaux, notamment pour les entreprises capables de fournir ces services aux collectivités et aux services publics. Néanmoins, le marché européen reste toujours diversifié dans l’idée des priorités d’une ville intelligente. Ainsi, un sondage réalisé par 3M/TNS dans cinq pays européens sur les attentes citadines montre des variations, hormis l’efficacité des transports, plébiscitée par quatre pays sur cinq.

En tout les cas, pour réussir ce pari, les technologies du Cloud Computing, du Big Data, de l’Open Data, et de la mobilité seront mises à l’honneur pour concevoir ces cités intelligentes. A ce propos, vous trouverez en annexe quelques sites de démonstration exploitant l’Open Data.

Enfin, pour terminer, la cité intelligente de 2050 reste un idéal à atteindre et ne garantit en rien que ces technologies soient celles que nous sommes capables d’imaginer aujourd’hui. Comme l’a écrit récemment Founder Funds dans un rapport à propos du futur : « Nous voulions de voitures volantes, à la place nous avons eu 140 caractères », en parlant de notre vision du futur dans les années 60 et notre incapacité à imaginer un service comme Twitter, de par sa simplicité technologique.

dataparis.io

image é

flightradar24.com

image 3

wearedata.watchdogs.com

image 4

 

IT Pro Magazine, Août 2013

Stratégies – Biométrie personnelle au service de la santé

26 décembre 2013

Arnaud Alcabez

WithingsWithings, contraction de WiFi et de things (choses ou objets en anglais)  est une société qui transforme des objets du quotidien au service de la santé en objets intelligents en y intégrant des capteurs. Dernier produit en date, après avoir déjà créé un tensiomètre, un baby phone, un contrôle d’activité cardiaque et un pèse-enfant intelligent, voici  un pèse-personne connecté portant le nom du « Smart Body Analyzer » communiquant en Wifi avec un équipement mobile.

Au-delà de ce qu’on peut attendre comme fonction de ce type d’appareil, la balance est équipée de deux capteurs particuliers : Le premier mesure le rythme cardiaque au repos, le second relève la quantité de CO² dans la pièce dans laquelle elle est installée (la chambre) toutes les trente minutes pour mesurer la qualité de l’air ambiant.

La pesée quant à elle récupère un certain nombre de données, telles que l’indice de masse corporelle (IMC), la masse grasse, le pouls, et bien entendu le poids, et les envoie sur votre profil personnel sur Internet, protégé par un mot de passe. L’application mobile « Withings Compagnon Santé », disponible sur iPhone et Android vient consommer les données collectées. L’application restitue les données sous forme de graphiques d’évolution dans le temps et montre comment elles se situent par rapport aux données type fournies par l’Organisation Mondiale de la Santé (OMS).

Sur le même thème de la santé connectée que le bracelet « Up », le « Smart Body Analyzer » est vendu à un prix de 150€ sur le site de la société withings.com et dans les Apple Stores.

Profitant de cette actualité, il est intéressant de rappeler deux caractéristiques fondamentales de l’informatique ambiante et des objets intelligents connectés pour qu’ils puissent entrer dans cette catégorie :

  • L’intelligence ambiante est d’enrichir les objets existants, de la vie quotidienne, et de les réinventer (ou recycler) pour les rendre plus utiles en les connectant, sans les rendre plus complexes d’utilisation. Ce principe est tout à fait respecté dans le « Smart Body Analyzer » où la fonction originelle de l’objet est conservée, tout en étendant son utilité.
  • Par contre, est-ce qu’il suffit qu’un objet soit intelligent et soit connectable pour qu’il soit véritablement un objet intelligent connecté ? Sous cette différence subtile se cache une vraie question : Suffit-il d’assembler quelques capteurs, un stockage des informations collectés, et un retour des données sur une page web ou un équipement mobile pour qualifier ce produit d’objet intelligent connecté ? Si sur le principe, je comprends que toute innovation peut être brevetée, l’objet se doit d’être ouvert avec des API (Application Programming Interface ou en français Interface de programmation) pour permettre aux développeurs d’interfacer d’autres objets ou de concevoir de nouvelles interfaces consolidées. Le « Smart Body Analyzer » est bien un objet intelligent connecté au sens où la société Withings met l’API à disposition du public sur son site Internet.

Bien évidemment, même s’il reste utile, ce type d’objet n’est en rien proactif, au sens où il ne sait pas s’adapter à son environnement en fonction des données qu’il reçoit d’autres appareils, de contexte environnemental ou humain, et encore moins anticiper en événement.

Le nombre d’objets de notre quotidien au service du bien-être, de la santé ou de l’hygiène qui nous entourent offre des perspectives illimitées en termes de réinventions. Maintenant, à quoi sert de collecter des données si la chaîne de valeur n’est pas complète ? En effet, l’interprétation des valeurs est laissée libre à l’utilisateur, et il pourrait être intéressant de disposer de la possibilité d’être conseillé préventivement en temps réel par un vrai spécialiste de la santé, sous la forme d’un abonnement. Médecins, c’est à vous de jouer… à vos claviers !

IT Pro Magazine, Juillet 2013

Stratégies – L’Homme, ce périphérique Wifi qui s’ignore

26 décembre 2013

Arnaud Alcabez

Lhomme wifiSi certains s’efforcent encore de démontrer que les réseaux Wifi peuvent être nocifs à notre santé, comme c’est le cas de cette étude menée par cinq lycéennes de Stockholm et qui a fait le tour d’Internet à la fin du mois de mai, d’autres explorent de nouveaux champs d’exploitation qu’on pourrait faire de ces réseaux dans lesquels nous baignons au quotidien.

Quatre étudiants de l’université de Washington se sont intéressés à l’analyse de la distorsion du signal entre deux bornes Wifi lorsqu’un objet situé entre les deux perturbe la fréquence des ondes radio, en les faisant rebondir (effet Doppler).

Via un routeur modifié (qu’ils ont appelé WiSee), les variations sont analysées et découpées en fines bandes de fréquences radio de 2Hz, afin de rechercher les changements de l’ordre de 10Hz, soit de l’ordre d’un mouvement de bras.

Sur une batterie de 9 gestes prédéfinis, WiSee arrive à identifier et classer des gestes avec une précision de 94 %, et est capable dans un environnement avec plusieurs personnes, de se fixer sur une seule personne en utilisant plusieurs antennes, ou d’utiliser plusieurs canaux MIMO (Multiple-Input Multiple-Output) pour identifier et gérer indépendamment plusieurs personnes dans le champ de diffusion du réseau Wifi.

En utilisant l’effet Doppler, les étudiants ont résolu deux problèmes liés aux objets de détection de mouvement à lentille optique : le fait de n’être pas sensible à la luminosité ambiante, le périphérique pouvant être utilisé sans éclairage, et le fait de ne pas forcément être dans le champ de vision, voir à une certaine distance de l’appareil.

Une vidéo de présentation est disponible ici : http://www.youtube.com/watch?v=VZ7Nz942yAY.

Avec cette technologie, l’Homme lui-même devient un objet connecté, sans avoir recours à un artefact pour entrer des données dans un système numérique. On peut même imaginer qu’en analysant en profondeur ses caractéristiques anthropomorphiques et de signal, on puisse l’identifier en tant qu’objet unique. Pour ce dernier point, une équipe de recherche de l’université de Carnegie Mellon n’est pas loin de le proposer en concevant une carte du Maraudeur, en référence à Harry Potter, basée sur la reconnaissance faciale et le tracking qui permet de repositionner sur une carte virtuelle chaque individu passant devant une caméra et suivre leurs déplacements en temps réel.

Une vidéo de présentation est disponible ici : http://www.youtube.com/watch?v=maj4Ps-wMG4

Alors, l’Homme, bientôt connecté automatiquement sur le réseau, tracé automatiquement en passant dans le champ d’une caméra ou d’un réseau Wifi est-il pour un avenir proche ? Peut-être…

Et peut-être que dans un demi-siècle, les tours opérateurs proposeront à leur catalogue des prestations pour passer une vraie semaine « offline » hors du Réseau dans des espaces réservés à cet effet que les gens les plus riches s’arracheront.

IT Pro Magazine, Juillet 2013