Jena Net Neutralite

Présentation
Cette étude d'octobre 2008 (PDF) de Gernot Pehnelt de l'université Friedrich Schiller à Jena présente et démonte la neutralité du réseau sous l'œil (biaisé) de la seule consommation d'information.

Contenu

 * L'étude analyse les problèmes de saturation du réseau Internet
 * Les services sensibles aux débits risquent d'être perturbés si on a un réseau neutre
 * Cela crée des pertes économiques
 * La séparation des paquets par nature de protocole permet d'y remédier
 * Une régulation de l'Internet qui imposerait la neutralité du réseau aurait un impact négatif sur le développement des projets innovants et découragerait les investissements et l'innovation.
 * L'étude conclut sur le rejet de l'article 22.3 de la directive "service universel" qui stipule qu'une autorité réglementaire nationale peut adopter des orientations définissant des exigences minimales en matière de qualité de service.

Définition :

 * Pas de définition de la neutralité du net (QoS ou pas QoS, accès libre a tous les contenus, etc.).
 * Discours biaisé ("so called consumer protection agency", "ridiculous"). Ce n'est pas parce que l'on discrédite par des insultes les modèles que l'on critique, que les arguments sont valables. Au contraire, il s'agit souvent d'un aveu de faiblesse de l'argumentation.

Contrôle des contenus

 * On notera ici la non différenciation hacking/cracking, révélatrice d'un manque de compréhension.
 * Le rôle d'un ISP n'est pas de choisir ce qui est légal ou illégal, uniquement de transporter des paquets (avec à la rigueur une politique de QoS) et de protéger son réseau contre les attaques.
 * La discrimination proposée implique également de contrôler l'utilisation que font les internautes du réseau, ce qui n'est pas sans incidence sur la protection de leur vie privée.

Du problème de la congestion

 * Pas de vraie preuve que la solution proposée supprime les problèmes de congestion, Youtube générerait 10% du trafic et Google possède le cash et le peering pour remplir les tuyaux...
 * Rien n'indique dans cette étude que les problèmes soulevés ne puissent simplement être réglés par une différenciation des tarifs selon la bande passante allouée.

Des contre arguments

 * Le contre argument n'est ici aucunement contredit, il invite même à penser que les discriminations proposées pourraient être rejetées par les consommateurs.


 * C'est exactement ce qui va se passer si, comme nous le croyons, les consommateurs rejettent le modèle de discrimination proposé. Ici encore, rien ne vient contredire cette objection.

L'Internet n'a jamais vraiment été neutre

 * C'est exact, et c'est justement un des principaux problèmes qui a longtemps empêché la création de nouveaux services : la vidéo conférence, la Téléphonie par Internet, l'échange de contenu privé entre connaissances, le fait de mettre un micro serveur chez soi (pour son mail, son site perso, etc.) sont autant de services qui auraient pu voir le jour bien plus tôt (certains ne sont pas encore là ou en qualité médiocre) si des choix fallacieux (upload ridicule et download important, comme au bon vieux temps du minitel) n'avaient pas déséquilibré la neutralité du réseau.
 * De plus, cette discrimination entre débuit montant et descendant est d'une autre nature qu'une discrimination selon les services utilisés, ou pire selon les contenus échangés : contrairement à ces dernières, elle ne nécessite pas de contrôler l'utilisation que font les internautes du réseau.

De la valeur des différents services et de la neutralité de la technique

 * Bien qu'elle soit sous forme interrogative, cette affirmation tient de l'axiome dogmatique sans aucune démonstration. Aucun modèle n'est proposé pour mesurer la valeur économique − et encore moins sociale − des techniques énumérées. Rien ne dit non plus qui va être chargé de cette évaluation. L'étude rejetant par ailleurs des mesures réglementaires, on peut supposer que les auteurs ne désirent pas que cette évaluation soit réalisée par l'État. Sont-ils davantage favorable à ce que ce soit le marché qui fixe cette valeur ? Ou sont-il suffisamment courageux pour laisser ce soin aux internautes eux-mêmes ?
 * Mais surtout, dans son aveuglement contre la neutralité du réseau, l'étude oublie qu'il est une neutralité indiscutable : celle de la technique. On peut sauver des vies avec un couteau alors qu'un couteau peut également servir à tuer. De même les échanges pair à pair (P2P) peuvent également servir à diffuser des cours en ligne. Des services de vidéo comme YouTube peut servir à diffuser du contenu, quel qu'il soit : tour de cartes certes, mais également informations importantes comme la signalisation d'un enlèvement d'enfant. Et la recherche médicale peut également bénéficier de tous les services en lignes, quel que soit le protocole utilisé. Ainsi la discrimination proposée ici selon la nature des protocoles risquerait d'empêcher des applications jugée dans cette même étude comme étant à forte valeur ajoutée.

De la contradiction des principes fondamentaux d'Internet

 * Or le principe selon lequel l'intelligence se situe aux extrémités (i.e. aux points accédant au réseau, dans les ordinateurs des utilisateurs finaux) et non dans l'infrastructure du réseau, est à la base de l'expansion et du succès rencontré par Internet. Remettre en cause la neutralité du réseau impliquerait effectivement la remise en cause de la manière dont fonctionne Internet. Les intermédiaires, tels que les FAI, sont des acteurs assurant le transport des informations dans le réseau. En faire des acteurs agissant sur ce qui est transporté est une négation même de l'architecture d'Internet. Ce qui n'empêche pas les FAI de mettre en place des mesures de qualité de service (QoS) de manière à optimiser leur rôle de transporteurs d'information.