Keyword - Communications

Entries feed - Comments feed

26 March 2008

Enchères et tractations à propos des fréquences sans fils aux USA.

700Mhz

Les enchères pour la bande de fréquence de 700Mhz se sont closes le 18 mars dernier, après 2 mois d'enchères menés par la FCC (Federal Communications Commision). La présence de 200 entreprises, le montant total de ces enchères (le double des prévisions : 19,6 milliards de dollars), et la présence de Google en ont fait un évènement exceptionnel.

Auparavant, ces fréquences étaient utilisées par la télévision analogique, pour les canaux 52 à 69. Le passage complet à la télévision numérique aux États-Unis, le 19 Février 2009, rendra ces canaux inutilisés. Cinq différentes bandes de canaux ont ainsi été mises aux enchères pour une largeur totale de 62Mhz.

La bande des 700Mhz est intéressante, car la fréquence étant plus courte que pour les réseaux sans fils de type CDMA, GSM et Wifi, la porté est plus longue et nécessite moins d'émetteurs et donc un investissement plus faible dans les infrastructures du réseau.

Google et les enchères

L'introduction de Google dans ces enchères a modifié la donne, car Google a poussé fortement dans le sens de l'ouverture, en proposant un montant minimum de 4,6 milliards de dollars pour avoir un « open access » sur un des lots des enchères, qui permettrait aux consommateurs de ne pas être bloqués sur une plate-forme téléphonique spécifique. Aidé par plusieurs autres acteurs de l'Internet et des associations de consommateurs, Google a persuadé la FCC de changer les règles de ces enchères. Les opérateurs de téléphonie ont tout fait pour les en empêcher.

Résultat

Finalement, les grands vainqueurs de ces enchères ont été principalement AT&T et Verizon Wireless, les deux plus grands réseaux de téléphonie mobile aux USA. Ces deux réseaux ont en effet dépensés près de 84% du montant total collecté par la FCC.

Les enchères ont été un succès pour la FCC à l'exception d'une partie : 'le bloc D', dont le sort est encore en discussion, car le prix de réserve n'a pas été atteint.

White spaces

Depuis la fin des enchères, Google a demandé à la FCC de lancer une action pour gérer l'utilisation des « espaces blancs », ces canaux non utilisés dans la nouvelle distribution pour la télévision numérique. Ces canaux diffèrent en fonction des émetteurs mais ils pourraient être utilisés pour l'accès à Internet. Les entreprises informatiques sont plutôt favorables à ce système alors que les associations comme la NBA (National Association of Broadcasters) y sont opposés, afin de se conserver une marge de manœuvre pour évoluer.

Sources

  1. FCC Finalizes Rules on 700MHz
  2. Verizon, AT&T rule 700MHz auction; Block D fate unsettled
  3. After 700MHz coup, Google now fronting white space devices

10 March 2008

Conférence et record dans les communications par fibres optiques

La conférence OFC/NFOEC 2008, qui porte sur les communications par fibres optiques (Optical Fiber Communication/ National Fiber Optic Engineers Conference), s'est déroulée à San Diego, en Californie à la fin du mois de février. Cette conférence annuelle est centrée sur l'actualité américaine dans le transport optique pour les télécommunications, secteur qui est très fortement porteur, avec l'explosion des contenus multimédias sur l'Internet. Chaque année, cette conférence s'internationalise de plus en plus. En effet, le trafic sur l’Internet double de façon constante tous les 16 mois: les échanges journaliers atteignent aujourd'hui 9000 péta-octets (9 milliards de giga-octets) et devraient atteindre 21 000 péta-octets en 2012.

Le grand thème de discussion de l'édition précédente portait sur l'adoption du 40Gigabit/s (Gbit/s), et notamment de savoir si il ne fallait pas directement travailler sur la génération suivante (100Gbit/s). Cette année, le 40Gbit/s et les 100Gbit/s ont été assimilés dans une même catégorie, et, malgré le démarrage relativement lent de ces composants, ils ont été un des focus principaux de cette conférence. Le marché des composants à ultra haut-débit est estimé à $900 millions, pour l'année 2012, ce qui représentera 10% du marché des composants pour les télécommunications optiques.

Ainsi, de très nombreux composants à 40Gbit/s ont été présentés lors de cette exposition (des lasers à forte puissance aux modulateurs et démodulateurs en passant par les puces spécifiques de traitements), et ont montré que la technologie était mûre et assimilée. Par ailleurs, ces taux de transferts sont déjà utilisés dans certains déploiements de FTTH (Fiber To The Home).

Une autre technologie très en vogue sur le salon a été la technologie SFP+ pour les nouveaux connecteurs optiques. De plus petite taille que ses concurrents et plus récemment standardisée, cette technologie permet d'augmenter le nombre de ports optiques par cartes et supporte les nouveaux standards et le 10Gbit/s contrairement à son prédécesseur (SFP).

Puisque les technologies à 40Gbit/s sont développées, les principales discussions ont porté sur les développements des technologies à 100Gbit/s et au delà, ainsi que les spécifications des standards allant de pair avec ces innovations.

Cette conférence était aussi une rencontre scientifique, plusieurs articles de recherche ont été présentés pendant ces quelques jours. Ainsi Alcatel-Lucent et son groupe de recherche Bell Labs a montré comment ils avaient réussi à mettre au point une transmission record culminant à 16,4 Terabit/s (16 400 Gbit/s), sur plus de 2 550 km en utilisant 164 canaux à 100Gbit/s multiplexées; ceci établit un nouveau record de vitesse.

Cette démonstration, ainsi que trois autres articles de Bell Labs portant sur les circuits de transmissions à 100Gbit/s (sur un récepteur, sur un modulateur bipolaire et sur un autre modulateur) ont montré que cette nouvelle technologie et l'Ethernet à 100Gbit/s s'approchaient de la commercialisation.

Ce marché se développe encore et semble rester porteur pour les prochaines années avec de nouvelles innovations.

29 February 2008

Intervention de la FCC sur la neutralité du net

Introduction

La FCC, Federal Communications Commision, haute instance américaine des télécommunications veut discipliner les fournisseurs d'accès Internet. Au vu des dernières modifications opérées par Comcast sur son réseau et le nombre de plaintes qui s'en sont suivies, le directeur de la FCC, M. Kevin Martin, pense qu'il est nécessaire de renforcer le principe de "neutralité du Net", voire de légiférer pour réguler les différents acteurs.

Comcast

La commission a reçu, dernièrement, de nombreuses plaintes contre les nouvelles politiques de Comcast. M. Martin est d’accord pour que les fournisseurs d'accès puissent prendre les mesures raisonnables qui leur semblent nécessaires pour améliorer la gestion de leur trafic sur leur réseau, mais ils doivent expliquer clairement les mesures qu'ils prennent à leurs clients.

La commission a discuté avec les différents acteurs de l'Internet, avec des représentants de Comcast, de Verizon (concurrent de Comcast), des partisans de la "Neutralité du Net", des professeurs d'Harvard et des avocats, avant de prendre une décision.

Comcast détruit les paquets IP

Comcast déclare que les modifications des politiques sur son réseau sont nécessaires pour empêcher que certains utilisateurs ne consomment toute la bande passante au détriment des autres. Les applications de type peer-to-peer (p2p) sont bien sûr visées, notamment vu leur utilisation pour le partage illégal de fichiers.

Le problème principal est que Comcast, au lieu de ralentir le trafic de certains protocoles pour privilégier les autres, a actuellement une politique très agressive de falsification de paquets TCP/IP, ce qui bloque intégralement certains protocoles, que l'utilisation soit légale ou non. Outre le fait que ceci viole la plupart des standards d'Internet et que cela pourrait créer un précédent dangereux, plusieurs entreprises utilisent ces protocoles pour faire de la distribution légale de vidéos, de films et de logiciels. Et elles se sont plaintes à la FCC, car leur chiffre d’affaire est directement impacté par les restrictions opérées par Comcast.

Conclusion

La commission pourrait proposer une loi au congrès américain afin de légiférer sur ces problèmes et qui irait probablement contre l'attitude de Comcast.

13 February 2008

Surveillance de trafic grâce à des téléphones GPS

Expérience marrante à laquelle j'ai assisté.

Le CCIT (California Center for Innovative Transportation), le département d’ingénierie civile et environnementale de Berkeley, le département des transports de Californie (Caltrans) et Nokia se sont associés, le 8 février dernier, pour réaliser une expérience grandeur nature de surveillance en temps réel du trafic autoroutier grâce à des téléphones GPS.

L’idée de l’expérience consistait à mettre en place une situation de test, en grandeur réelle, avec une centaine de véhicules équipés de téléphones cellulaires GPS se déplaçant sur une portion restreinte d’autoroute, dans la baie de San Francisco. La difficulté de l’expérience consistait à quantifier la quantité de données nécessaires et suffisantes pour obtenir des données fiables sur la fluidité du trafic tout en minimisant les communications et en maximisant la confidentialité des communications.

Pendant 7 heures, cent véhicules pilotés par des étudiants de Berkeley ont tourné sur une portion autoroutière de 8 miles (12,9km), en envoyant leurs coordonnées et leur vitesse, grâce à leur téléphone portable, à des serveurs distants. Les données étaient cryptées en utilisant un cryptage asymétrique dont la clé publique est celle du serveur central. Les informations sont cependant envoyées dans un premier temps à un premier serveur anonymiseur, qui retire toutes les informations de provenance dans les données. Ainsi le premier serveur ne peut décrypter les données, et le serveur central ne peut pas tracer une personne en particulier.

Pour minimiser la quantité de données à envoyer, le logiciel du téléphone demande régulièrement aux serveurs quelle est la fréquence d’envoi dont le système a besoin, en fonction de la vitesse actuelle et de la présence d’autres véhicules dans le même secteur.

Après traitement et lissage des données grâce aux modèles de flux de véhicules développés par Berkeley, le résultat permet de calculer les vitesses moyennes et les temps de parcours entre plusieurs points. Les capteurs routiers classiques sont moins réactifs, moins résistants aux pannes, très localisés et plus chers à entretenir que ce système.

Ce système est assez fiable dès lors que 5% des véhicules sont équipés de ce genre de systèmes de localisation et d’envoi de données. Comme les systèmes GPS vont probablement se généraliser dans les téléphones portables dans les prochaines années, ce modèle a une bonne possibilité de croissance.

Cette expérience a été un succès de collaboration entre des institutions publiques et privées, d’organisation et de démonstration du potentiel de ces technologies.