jb, 28y

Science&Techno

Cette section, en français uniquement, rapporte des petits articles que j'écris tout au long de l'année.

Entries feed - Comments feed

Wednesday, September 10 2008

Nouvelles technologies dans les navigateurs Internet

La sortie d'une version béta de Google Chrome, le nouveau navigateur Internet développé par le géant de la recherche en ligne, n'est pas passé inaperçue dans les médias. Cette sortie a été presque simultanée avec la sortie de la version béta 2 d'Internet Explorer 8, publiée par Microsoft, l'annonce de la version béta de Mozilla Firefox 3.1 pour la fin du mois de Septembre et la mise à disposition de la deuxième version de test de Safari 4.

== Nouveau Web == Cette compétition pour la nouvelle génération des navigateurs Internet a introduit plusieurs nouvelles technologies qui résultent de l'évolution de l'utilisation des navigateurs. En effet, les navigateurs servent aujourd'hui de plateforme autant à des applications en ligne, multimédias ou interactives, qu'à l'affichage de simples pages Webs. Alors que de nombreux services utilisent ces capacités, les navigateurs ont assez peu évolués pour s'adapter à ces nouveaux usages, et se trouvent en décalage par rapport aux besoins.

Les applications web nécessitent souvent des capacités pour le multimédia et de dessin, de la manipulation des objets, des interactions poussées avec l'utilisateur, des personnalisations de l'affichage et un affichage dynamique. Pour y parvenir, elles utilisent un ensemble de technologies, dont notamment des plugins (tels que Flash), des communications asynchrones (AJAX), des manipulations d'objets dans les pages (DOM) et un langage de script exécuté sur les postes clients (JavaScript).

== Moteurs JavaScript == Le support des nouveaux standards du web, la réactivité des scripts applicatifs et la bonne gestion des plugins sont donc devenus les nouveaux nerfs de la compétition. La réactivité des applications dans un navigateur dépend essentiellement de la vitesse de l'interpréteur du code JavaScript. Ainsi, Google Chrome, Firefox 3.1 et Safari 4 introduisent des interpréteurs JavaScript complètement nouveaux. Nommés respectivement V8, TraceMonkey et squirellfish, ils utilisent des méthodes de compilation en temps réel par tracing (Trace-Based JIT Compilation), qui permettent d'approcher les performances de celles de langages compilés après une première analyse. Les méthodes utilisées dans ces moteurs JavaScript sont hérités de la recherche sur les machines virtuelles et les exécutions en temps réels de Bytecode.

== Onglets et processus == D'autre part, les applications web se complexifiant et la navigation par onglets étant la norme, il devient inacceptable qu'un site web arrête et bloque inopinément toutes les pages ouvertes. En effet, perdre des modifications lors de l'édition de documents en ligne se révèle plus dommageable que lors d'une simple consultation web. Pour résoudre ce problème, il faut que chaque onglet soit suffisamment indépendant pour que son exécution ne perturbe pas les autres.

La solution mise en place par Google consiste au lancement d'un processus par onglet. Cela se comporte exactement comme si plusieurs instances du navigateur se lançaient chacune s'occupant d'un onglet. Ainsi, le plantage dû à un site web n'influence pas les autres, et la mémoire est intégralement libérée lorsqu'un onglet est fermé. La solution de Microsoft dans Internet Explorer 8 est similaire, car elle utilise plusieurs threads indépendants, mais n'a pas la correspondance stricte entre un processus et un onglet que l'on trouve dans Google Chrome. Le problème principal de cette approche dans ces deux nouveaux navigateurs se trouve dans une consommation mémoire plus importante, puisque le partage entre onglets est presque nul, et que les moteurs de rendus sont dupliqués en mémoire. Cependant, ces duplications ne sont visibles qu'en mémoire virtuelle, puisque la plupart des systèmes d'exploitation modernes implémentent les méthodes de "Copy-on-Write" qui font qu'une page mémoire n'est recopiée en mémoire physique que lorsqu'elle est modifiée.

== Standards == Enfin, tous ces navigateurs renforcent leur compatibilité avec les standards du Web (notamment HTML5, CSS2 et CSS3). Même Internet Explorer, qui a toujours été le mauvais élève pour la conformité aux standards, a amélioré énormément sa compatibilité aux standards.

Wednesday, June 18 2008

Nouveau classement du Top500 - Pétaflop!

Top 500

Le nouveau classement des 500 supercalculateurs les plus puissants dans le monde, publié deux fois par an par le site top500.org, replace les États-Unis dans les 5 premières places du classement. Une fois de plus, l’écrasante majorité des systèmes ont été conçus par des compagnies américaines, avec notamment les systèmes IBM et HP qui représentent 78% du classement.

Plus, toujours plus

Le précédent classement, de novembre 2007, avait vu trois calculateurs non-américains entrer dans le top10. Il avait aussi vu une entrée de 5 nouveaux systèmes dans ce top10. Ce nouveau classement, outre l’introduction du premier calculateur dépassant le téraflop (voir BE 127), change la hiérarchie de façon importante puisque seuls 4 systèmes du top10 d’il y a 6 mois sont encore présents dans ce top10. Tous les systèmes du top10 dépassent les 100 téraflops.

Le système BlueGene/L du « Lawrence Livermore National Laboratory », resté numéro 1 pendant 3 ans et demi, est dorénavant numéro 2. Le troisième système est un nouveau système BlueGene/P, situé à l’« Argonne National Laboratory ». Enfin, les grands laboratoires américains dépendant du « Department of Energy » ajoutent le 5ème système à leur palmarès avec un nouveau système fait par Cray à l’ « Oak Ridge National Laboratory ».

Il est notable que, pour la première fois depuis longtemps, un système du top10 soit installé chez un industriel (Total).

Technos

Technologiquement, sur l’ensemble du classement, les processeurs Intel se trouvent dorénavant dans 75% des systèmes et son architecture à quadri-cœur se trouve dans plus de la moitié des systèmes (20% des systèmes il y a 6 mois). Les interconnexions sont majoritairement basé sur du Gigabit Ethernet bien que cette technologie soit absente dans le top50. Linux reste le système d’exploitation le plus utilisé dans les systèmes du classement avec 80% des parts de marchés.

USA vs. world.

Les États-Unis restent dominants dans le calcul haute-performance, avec plus de la moitié des systèmes sur leur sol, mais la part Européenne s’améliore avec 37% des systèmes du top 500. La France, encore derrière le Royaume-Uni et l’Allemagne s’améliore et possède deux systèmes dans le top10.

Pour la première fois, le top500 calcule l’efficacité avec la performance rapportée à la consommation. Et le premier est le premier. :D

Source

Top 500

Wednesday, June 4 2008

Bataille en vue: Processeurs pour appareils portables ?

Processeurs d'électronique grand public

Le marché des processeurs pour les appareils portables se densifie encore avec des nouveaux arrivants. Nvidia vient d'annoncer une nouvelle série de processeurs pour l'électronique grand public alors qu'Intel vient de faire son annonce officielle de sa gamme de processeurs « Atom ».

Entre les processeurs pour téléphones portables et les processeurs pour ordinateurs de bureau, une très grande variété des processeurs se développent, afin de répondre à la demande grandissante des appareils mobiles. Entre les mini-ordinateurs portables du type Asus EEE, les PC ultra-mobiles du type « Origami », les assistants personnels tournant sous Windows Mobile et les téléphones portables, comme l’iPhone, ayant des capacités multimédias, cette gamme des appareils a le vent en poupe.

nVidia et Intel attaquent

Les géants américains nVidia et Intel ont tous les deux commencé à adresser, de façon différente, ces marchés qui sont nouveau pour eux. Nous avons déjà parlé dans ces colonnes des processeurs nVidia APX 2500 et de la plate-forme « Atom » d’Intel.

Atom est lancé

Ainsi Intel, a lancé officiellement, cette semaine, sa gamme de processeurs « Atom » pour appareils portables. Ces puces, basées sur une architecture x86, sont des puces à basse consommation (entre 0,6Watt et 2,5Watt) et sont plutôt orientés ordinateurs ultra-portables que téléphones portables.

Tegra aussi

nVidia, après avoir annoncé son processeur pour téléphones portables, l’APX 2500, en février dernier, vient d’annoncer deux nouveaux processeurs basés sur une architecture similaire. Son architecture Tegra se base sur un cœur ARM11 et comprend un processeur graphique GeForce, un processeur de vidéo HD et un processeur d'imagerie; mais il comprend aussi des contrôleurs mémoire, IDE, USB et HDMI.

Deux versions ont été annoncées: le « Tegra 600 » et le « 650 ». Le Tegra 600 est cadencé à 700Mhz, a un bus mémoire cadencé à 166Mhz et peut décoder de la vidéo haute-définition en 720p (résolution de 1280x720 pixels). Le Tegra 650 est cadencée à 800Mhz (mémoire à 200Mhz) et doit pouvoir décoder de la vidéo haute-définition en 1080p (résolution de 1920x1080 pixels). Les processeurs Tegra fonctionne avec le système d'exploitation Windows Mobile, qui supporte les processeurs de type ARM.

Ainsi, nVidia se repositionne sur ce marché, avec un processeur APX, qui vise plutôt les téléphones portables et deux processeurs Tegra qui visent plutôt les appareils d'électronique grand public plus importants, sans toutefois attaquer sérieusement le marché des ordinateurs ultra mobiles

Tuesday, June 3 2008

Innovations dans le domaine des écrans « multi-touch »

Ecrans Multi-Touch

Les écrans « multi-touch » (à contact multiples) sont sur le devant de la scène des interfaces hommes-machines. En effet, leur utilisation par Apple sur ses iPods et ses iPhones, et les démonstrations par Microsoft des appareils de salon de type « Surface » ont montré les nombreuses innovations possibles dans l’univers des logiciels grâce à cette technologie.

En fait, les écrans à contacts multiples sont des écrans qui détectent la présence des doigts ou des objets proche de leur surface. Contrairement aux écrans tactiles classiques, ils peuvent détecter plusieurs entrées, d’où leur nom. Ainsi, on peut déplacer, déformer, modifier ou agrandir des objets virtuels de façon plus intuitive qu’avec un clavier ou une souris. Par exemple, dans les iPod et les iPhone, avec deux doigts, on peut agrandir ou rétrécir une page web, une photo ou d'autres objets. De la même façon, la technologie Surface de Microsoft permet de détecter les objets présents sur son écran, ou d'utiliser la plupart des logiciels sans souris ni crayon.

IHM des OS

Cependant, pour intégrer ces nouveaux dispositifs d'entrées, il faut revoir de façon importante les interfaces graphiques de nos ordinateurs. En effet, les interfaces de la plupart des systèmes d'exploitation sont faites pour être actionnées par un pointeur unique, souris ou stylet, qui se déplace dans un espace restreint. Ce pointeur peut être actionné ou non pour générer diverses actions; le clic de souris servant, pour la plupart du temps, d’actionneur.

Pour répondre à cette tendance, Apple a introduit cette technologie au niveau de son système d'exploitation Leopard. Microsoft, quant à lui, vient de présenter, lors de la conférence « All Things Digital », une démonstration de son prochain système Windows, nommé « Seven », et a mis l’accent sur l’intégration des écrans à contacts multiples.

Technologies

Du point de vue technique, plusieurs technologies se concurrencent sur ce secteur. Les écrans tactiles multipoints, comme ceux utilisés par Apple, ont été les premiers à ouvrir la voie. Ensuite, la technologie Surface de Microsoft se présente comme une table avec un écran sur le dessus; à l'intérieur de la table, une caméra traque les mouvements à la surface de l'écran. Cette technologie a plus de possibilités de détection (notamment les formes des objets posés sur la table), mais coûte plus cher à produire et ne s'adapte pas à tous les écrans.

Nouvelle technologie

Pour répondre aux limitations actuelles, des chercheurs de Microsoft de l'équipe d’Andy Wilson ont développé une nouvelle solution. Au lieu d'avoir la caméra intégrée dans l'écran, ils positionnent une caméra au dessus de l'écran et deux lasers infrarouges dans deux coins de l'écran. A l'utilisation, la lumière des deux lasers est difractée et forment un « plan » de lumière infrarouge juste au-dessus de l'écran; lorsqu'un objet ou une personne « brise » ce plan pour toucher l’écran, la caméra le détecte et renvoie le positionnement à la partie logicielle. Ce système, appelé « LaserTouch », coûte beaucoup moins cher à produire et s'adapte sur la plupart des écrans, même ceux de grandes tailles.

Sources

Thursday, May 29 2008

Gestion des dossiers médicaux par Google Health.

Google Health

Google vient de lancer publiquement son application de gestion des dossiers médicaux. Ce lancement officiel, ainsi que les partenariats développés avec des cliniques aux États-Unis font débat.

Bien que le projet de gestion informatisé centralisé géré par Google remonte au début de l'année 2006, il a été officiellement annoncé et a pris de l'ampleur depuis un peu plus d'un an. Les phases de tests se sont achevées il y a peu et la version complète de « Google Health » vient d'ouvrir au public, aux États-Unis.

Idée

L'application permet aux utilisateurs de gérer eux-mêmes leurs données médicales et de tout centraliser sur une même plateforme. Gardant l'historique des examens et des prescriptions, elle permet d'accéder de partout à son dossier médical et de le partager avec d'autres personnes. Elle permet aussi de chercher des adresses de médecins ou des prescriptions, de trouver des informations sur des médecins, de recevoir des conseils sur sa santé selon son profil, ou de prendre des rendez-vous avec les centres médicaux associés.

Centres partenaires

Plusieurs centres hospitaliers comme la Clinique de Cleveland ou le centre médical « Beth Israel Deaconess » de Harvard sont impliqués dans le projet et utilisent l'application pour la gestion en interne de certains de leurs dossiers médicaux. Ce faisant, Google s'attaque au marché de la gestion informatisée des dossiers médicaux, où il n'y a pas encore de concurrence claire, ce qui est une nouveauté, puisque toutes les applications de Google jusqu'alors essayaient de déporter des applications bureautiques à succès sur Internet.

Problèmes

Confidentialité

Cependant, cette application a suscité de nombreuses interrogations sur la sauvegarde de la vie privée et du secret médical. En effet, Google n'est pas soumis aux vérifications de conformation à l'HIPAA (Health Insurance Portability and Accountability Act) qui permettent de s'assurer du respect de la confidentialité des données médicales personnelles. Ainsi, certaines personnes se sont inquiétés de l'utilisation que pourrait faire « Google Health », au vu de ses conditions d'utilisation, des données et des statistiques, même anonymes, issues de cette application.

Sécurité

De plus, plusieurs chercheurs en sécurité ont fait remarquer la faiblesse de la sécurité du dispositif, sachant que les applications en lignes, en particulier celles de Google ont souvent des problèmes de sécurité. Ils mentionnent l'idée que des applications de ce type doivent être plus sérieusement sécurisée au vu des problèmes potentiels si des accès non autorisés aux données avaient lieu.

Sources

Wednesday, May 28 2008

Innovations technologiques dans la version 10 de Flash Player

Flash

La plateforme Flash de la compagnie américaine Adobe est une des plateformes les plus répandues dans l'informatique personnelle et professionnelle. Compatible avec la plupart des systèmes d'exploitation et des architectures, cette plateforme multimédia axée sur la gestion des graphiques vectoriels et de la vidéo a un taux de pénétration qui est, grâce à sa très forte présence sur le Web, supérieur à 98% des machines de bureaux.

Nouvelle version béta de Flash10

Adobe vient d'annoncer la phase de test de sa nouvelle version. Plusieurs innovations technologiques ont été dévoilées, notamment sur la gestion des graphiques 3D, l'accélération des rendus graphiques et sur les protocoles de communications peer-to-peer.

Innovations

Support de la 3D

Tout d'abord, l'introduction d'un moteur de graphiques 3D ouvre des possibilités nouvelles pour les présentations interactives ou les mini-jeux en lignes, qui sont les premiers utilisateurs de Flash. Ce moteur reste très limité, comparé aux moteurs de jeux vidéo classiques car il ne possède pas de fonctions de « shaders », de transformations complexes ou de gestion avancées des sources de lumières; cependant, il est capable de déplacer et d'animer des textures, permettant ainsi une transition simple entre la 2D et la 3D.

Accélérations matérielles

Ensuite, la plateforme permet d'utiliser les accélérations matérielles des cartes graphiques pour le rendu des images. Avec les cartes graphiques de plus en plus puissantes dans les ordinateurs personnels, ces accélérations devraient décharger les processeurs principaux de certains calculs graphiques, améliorant donc la fluidité des animations de type Flash.

Meilleur rendu

Au niveau du rendu, un nouveau moteur de gestion du texte supportant mieux tous les types de langages (notamment extrême-orientaux) ainsi qu'une interface de programmation de gestion des effets de déformations graphiques et de déformations d'images font leur apparition dans cette version. Ils devraient permettre de réduire les différences de capacités entre les applications riches et applications classiques.

P2P

Cependant, l'évolution technologique la plus intéressante, et la plus marquante consiste en l'intégration d'un protocole de communication peer-to-peer (p2p) dans la plateforme. En effet, Adobe a racheté une compagnie californienne, en 2007, Amicima, spécialiste des applications et des réseaux peer-to-peer, et a utilisé son savoir-faire pour permettre aux applications Flash de se construire leur propre réseaux décentralisés.

P2P vs CDN ?

Cela répond à une demande forte, puisque le coût principal pour les sites web à forte audience se trouve dans la bande passante consommée. Les sites web importants utilisent très fréquemment des prestataires CDN (Content Delivery Networks) afin de gérer leur trafic et leur bande passante. Malgré cela, pour les sites multimédias et les sites de vidéos, les coûts dus à leur bande passante consommée sont très importants. L'utilisation de technologies de p2p permettrait de diminuer notablement ces coûts.

RTFMP vs RTMP

Avec ce nouveau mode de réseaux sur la plateforme Flash, Adobe a introduit un nouveau protocole. Le protocole de streaming actuel utilisé par Flash (le RTMP) est un protocole orienté connexion se basant sur le protocole TCP et ayant des encapsulations pour les protocoles HTTP et HTTPS afin de traverser les pare-feux (firewalls). Le nouveau protocole, nommé RTFMP, se différencie par son mode non-connecté basé sur UDP et par son chiffrement de toutes les données utilisateurs.

Ainsi, il sera dorénavant plus simple de construire des applications p2p, autour de la plateforme Flash, sans avoir à redévelopper une architecture peer-to-peer ou se préoccuper de la confidentialité des communications. La portée de ces améliorations au niveau des applications riches et au niveau des relations entre fournisseurs de contenus et distributeurs n'est pas encore déterminée, car les restrictions d'Adobe sur sa plateforme sont inconnues.

Sources :

- page 1 of 8


Jean-Baptiste KEMPF | jean-baptiste.kempf _(at)_ via.ecp.fr | Powered by Chaussure | xHtml et CSS valide