12
Faire d’Internet une plate-forme de diffusion d’applications répondant aux besoins de performance des entreprises - Octobre 2008 Livre blanc Services d’accélération d’applications Web Akamai :

Les clés pour optimiser la performance des applications Web

Embed Size (px)

Citation preview

Page 1: Les clés pour optimiser la performance des applications Web

Faire d’Internet une plate-forme de diffusion d’applications

répondant aux besoins de performance des entreprises - Octobre 2008

Livre blanc

Services d’accélération d’applications Web Akamai :

Page 2: Les clés pour optimiser la performance des applications Web

PRÉSENTATION . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

DÉFIS LIÉS À LA DIFFUSION D’APPLICATIONS WEB . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Applications dynamiques

Services Web

L’INEFFICACITÉ DU RÉSEAU ET DES PROTOCOLES EST RESPONSABLE DES FAIBLES PERFORmANCES DE DIFFUSION DES APPLICATIONS . . . . . . . . . .. . . . . . . .

Les Goulots d’étranglement du « middle mile » en détails Temps de propagation aller-retour et lenteurs de diffusion d’applications Effet multiplicateur sur le temps de propagation (RTT)

APPROCHES COmmUNES POUR UNE mEILLEURE DIFFUSION DES APPLICATIONS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Renforcement des capacités du centre de données Appliance de diffusion d’application CDN (Content Delivery Network) traditionnels Services ADN (Application Delivery Network)

RÉSEAU EDGEPLATFORm D’AKAmAI POUR LA DIFFUSION D’APPLICATIONS . . . . . . . . . .

Une plate-forme distribuée de serveurs Architecture point-à-point

AKAmAI SUREROUTE RÉDUIT LE TEmPS DE PROPAGATION . . . . . . . . . . . . . . . . . . . . . . SureRoute élimine les déficiences du protocole BGP

LE PROTOCOLE AKAmAI RÉDUIT L’EFFET mULTIPLICATEUR DU TEmPS DE PROPAGATION. .

Le protocole Akamai élimine les déficiences du protocole TCP Le protocole Akamai élimine les déficiences du protocole HTTP DÉLESTAGE DE L’INFRASTRUCTURE D’ORIGINE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

PERFORmANCES ET mONTÉE EN CHARGE ÉPROUvÉES DES APPLICATIONS . . . . . . . . . . . .

LA SÉCURITÉ SUR LE NET . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

ImPACT SUR L’ACTIvITÉ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

RÉSUmÉ . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

LA DIFFÉRENCE AKAmAI . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

2

2

3

5

6

6

8

8

9

9

10

10

2

223

3

45

56

6

77

Table des matières

1

2

4

Page 3: Les clés pour optimiser la performance des applications Web

Services Akamai pour l’accélération d’applications

Présentation

Désirant améliorer l’efficacité de leurs processus métiers, les entreprises sont en recherche de solutions permettant à l’ensemble de leurs utilisateurs d’accéder aux applications correspondantes, quelle que soit leur localisation géographique. Conjugué à un souci important de maitrise des coûts de déploiements, cet objectif les oriente très naturellement vers l’adoption d’Internet comme infrastructure de communication pour ces applications, et en conséquence amène ces dernières à devenir de plus en plus dépendantes d’Internet. Les entreprises ont rapidement déployé des applications de productivité et de collaboration sur le Web telles que Microsoft® Outlook® ou SharePoint®, des systèmes de gestion intégrée de leurs processus métiers avec SAP® et Oracle®, des portails d’extranet, des systèmes de gestion de contenu, ainsi que des services Web visant à accroître les interactions de machine à machine, pour ne citer que quelques exemples.

Les entreprises sont confrontées à des situations contradictoires lors de la migration sur Internet de leurs applications et processus stratégiques : elles doivent, d’une part, réduire les coûts et la complexité liés au déploiement des centres de données (data center) et d’autre part, assurer les meilleures performances et la meilleure sécurité possibles pour les applications. En outre, les questions de conformité aux réglementations de type Sarbanes-Oxley rendent plus impérieuse encore la nécessité de regrouper le plus possible les serveurs d’application.

Malheureusement pour les nombreuses entreprises qui ont développé des applications Web professionnelles en interne, ou les ont acquises dans le commerce, les performances et la disponibilité de ces solutions se révèlent souvent insuffisantes pour répondre aux besoins des utilisateurs. Dans la plupart des cas, l’application est capable d’assurer un temps de réponse inférieur à la seconde pour les utilisateurs situés à proximité immédiate du serveur d’applications. Mais dès que la distance avec le serveur augmente, les performances se dégradent rapidement. Dans les faits, le temps de réponse des applications Web peut être multiplié par 10 lorsque les utilisateurs sont éloignés du serveur. Il en résulte de très faibles performances, voire l’impossibilité totale d’exploiter l’application pour une base d’utilisateurs mondialement distribuée. La détérioration des performances est due aux fondements mêmes d’Internet : ce sont ses protocoles de routage (BGP), de transport (TCP) et de communication (HTTP) qui n’ont tout simplement pas été conçus pour optimiser les performances ni la montée en charge. Ce défaut devient de plus en plus évident à mesure que la distance augmente. Dans ce cas, on parle souvent de goulot d’étranglement au «middle-mile » (i.e., au niveau des dor-sales réseau).

Les besoins en applications Web performantes et à haute disponibilité ont donné naissance à de nombreuses solutions, que les éditeurs d’applications et les gestionnaires IT ont pu comparer. Nous examinerons dans ce livre blanc les causes de la lenteur et de l’imprévisibilité qui caractérisent le temps de réponse des applications Internet. Nous verrons également comment la plate-forme distribuée EdgePlatform d’Akamai, fondement de ses services gérés d’applications Web dynamiques et d’accélération IP, dépasse les mises en œuvre CDN traditionnelles et les solutions matérielles d’accélération d’applications, afin de tirer profit des atouts d’Internet et de combler les lacunes de performance et de fiabilité du réseau.

Le temps de réponse constaté par les utilisateurs éloignés du serveur est parfois 10 fois supérieur au délai d’exécution à proximité immédiate.

Le protocole TCP, ainsi que le protocole de communication du Web (HTTP), ne sont tout simple-ment pas conçus dans un objectif de performances et de montée en charge.

Tem

ps

de

rép

on

se d

’ap

plic

atio

n (

sec.

)

Emplacement des utilisateurs finaux

Denve

r

San Fr

ancis

co

Chicago

Londre

s

Seat

tle

Mad

rid

Fran

cfort

Copenhag

ue

Helsin

ki

Istan

bul

Rio d

e Ja

neiro

Séoul

Bombay

Mel

bourne

Le C

ap

Perth

Shan

ghai

1

Page 4: Les clés pour optimiser la performance des applications Web

Services Akamai pour l’accélération des applications

Défis liés à la diffusion d’applications WebUne entreprise tournée vers le Web doit assurer à ses partenaires accessibilité, souplesse et rentabilité dans le déploiement de leurs applications stratégiques d’entreprise. De plus, les applications Web ont subi des transformations radicales, devenant de plus en plus dynamiques et interactives. Les entreprises sont tenues d’accroître les performances et les capacités de montée en charge des deux grandes catégories d’applications Web que sont les applications dynamiques et les services Web.

Pour les sociétés spécialisées dans les technologies de l’information, les défis associés à ces deux catégories d’applications Web dynamiques, en termes de mise en œuvre, sont de plusieurs natures :

• Les faibles performances des applications entraînent un faible taux d’adoption et une inefficacité des processus métiers.

• La disponibilité inégale des applications entraîne un taux élevé d’abandon et une faible satisfaction des utilisateurs.

• Le caractère imprévisible des planifications de capacité lors des pics d’activité provoque souvent une saturation ou une complexité excessive des infrastructures applicatives.

Applications dynamiques

On estime que presque 75 % des applications Web sont générées dynamiquement, puisqu’il est en effet nécessaire de fournir des contenus personnalisés pour les processus métiers stratégiques. Les contenus dynamiques ne peuvent tirer profit de la mise en cache, technique qui permet d’améliorer le temps de réponse des contenus statiques ou fréquemment utilisés.

Services WebL’usage des services Web, ou des interactions entre serveurs, devient une solution de plus en plus répandue pour gérer les applications B2B stratégiques. Les données provenant d’un service Web distant deviennent un ingrédient indispensable au traitement ou à la mise en forme effectués par une autre application.

L’inefficacité du réseau et des protocoles est responsable des faibles performances de diffusion des applications

Les Goulots d’étranglement du « middle-Mile » en détails

La conception intrinsèque d’Internet, qui vise par tous les moyens à en faire le « réseau des réseaux », constitue la cause principale des problèmes de diffusion des applications auprès d’une base mondiale d’utilisateurs. Internet n’a, à l’origine, pas été conçu pour les entreprises en ligne. Nous allons nous pencher sur la cause première des problèmes de performances des applications dynamiques et des services destinés aux utilisateurs mondialement répartis, autrement dit les goulots d’étranglement au niveau du « middle-mile » (au niveau des dorsales réseau) provoqués par le réseau lui-même, ainsi que par l’inefficacité des protocoles sur lesquels reposent les communications.

Temps de propagation aller-retour et lenteurs de diffusion d’applications

Les informations acheminées sur un réseau connaissent toujours un certain temps de latence entre le moment où elles sont émises depuis la source et leur arrivée à destination. C’est ce délai que l’on appelle temps de propagation aller-retour (RTT, ou « Round-Trip Time ») du protocole IP (Internet Protocol). Concrètement, il s’agit de la durée, en millisecondes, nécessaire pour la transmission d’un paquet IP d’un point à un autre et la réception d’un paquet en réponse sur ce même trajet. À titre d’exemple, l’aller-retour d’un paquet entre Los Angeles et New York ne nécessite jamais moins de 30 millisecondes, car c’est le temps nécessaire pour que la lumière voyage directement d’un bout à l’autre des États-Unis. Bien qu’une fraction du temps de propagation (RTT) résulte invariablement des restrictions inhérentes à la vitesse de la lumière, les goulots d’étranglement du réseau liés à la conception même d’Internet, tels que les points de peering entre fournisseurs de services, la congestion, les pannes d’alimentation ou les interruptions partielles, ajoutent inutilement des temps de latence et des pertes de paquets, éloignant chaque fois le RTT effectif de l’optimum théorique. Les dégradations du temps de latence et des pertes de paquets peuvent par exemple dépasser 100 ms à raison de 10 % de pertes de paquets sur une seule région géographique, telle que les États-Unis ou l’Europe. De même, le RTT considéré isolément dépasse souvent 500 ms, avec une perte de paquets de 20 % entre les États-Unis et la région Asie/Pacifique.

Internet n’a, à l’origine, pas été conçu pour les entreprises en ligne.

Les goulots d’étranglement du réseau liés à la conception même d’Internet, tels que les points de peering entre fournisseurs de services, la congestion, les pannes d’alimentation ou les interruptions partielles, augmentent inutilement le temps de latence et les pertes de paquets.

2

Page 5: Les clés pour optimiser la performance des applications Web

Services Akamai pour l’accélération des applications 3

Effet multiplicateur sur le temps de propagation (RTT)

Le téléchargement d’une page Web complète ne nécessite pas un, mais plusieurs allers-retours entre le client et le serveur. Ce « facteur multiplicateur du temps de propagation » augmente pour les utilisateurs d’applications qui résident encore plus loin du serveur d’applications d’origine. Les goulots d’étranglement sur le « middle-mile » sont donc créés non seulement par le RTT lors d’un trajet simple sur Internet, mais également à cause de son facteur multiplicateur, lié au nombre d’allers-retours nécessaires pour charger via Internet une simple page Web.

L’effet multiplicateur du RTT est dû au protocole de transport d’Internet (TCP), au protocole de communication dédié au Web (HTTP) et à la manière dont ces deux entités agissent l’une sur l’autre. De par sa conception, le protocole TCP nécessite « une poignée de main en trois temps » pour établir chaque nouvelle connexion. Cette « poignée de main » prend la forme d’une succession d’allers-retours. De plus, chaque connexion provoque par la suite de nouveaux échanges pour se maintenir active. La fonctionnalité de « démarrage lent » du protocole TCP, qui porte malheureusement bien son nom, sert à négocier la vitesse de connexion entre le navigateur et le serveur. Pas moins de trois échanges de paquets TCP sont nécessaires pour établir une connexion TCP destinée aux communications, et quatre échanges pour mettre fin à une seule d’entre elles. Une page Web typique, contenant un corps HTML et une multitude d’images et d’objets imbriqués, s’appuie sur plusieurs connexions TCP. Il en résulte une multiplication importante du temps de propagation, même en l’absence d’interruption réseau. La valeur exacte du facteur multiplicateur dépend de nombreux éléments, tels que le poids de la page, le nombre et la taille des objets qu’elle contient ou encore, les technologies employées par le navigateur ou le serveur. Au total, il est considéré comme commun d’effectuer pas moins de 30 à 50 allers-retours pour les applications Web.

Un autre aspect à prendre en compte est l’extrême sensibilité du temps de réponse des applications face aux états de congestion et d’interruption d’Internet, ce qui se manifeste par des pertes de paquets. Les points de liaison entre les différents réseaux, également appelés points de peering, peuvent être à l’origine d’importantes pertes de paquets. Les échanges entre réseaux appariés sont problématiques : dans de nombreux cas, il s’agit d’une mise en concurrence directe de ces réseaux, ce qui augmente le risque de voir l’un d’entre eux restreindre la bande passante entrante d’un autre, à cause d’alliances ou de conflits divers, d’où une congestion et une perte de paquets. L’une des autres sources de pertes de paquets et d’engorgement du réseau est liée aux faibles performances du routage Internet. Toute perte ou détérioration de paquets peuvent entraîner un retard dans la retransmission et des timeouts TCP, d’où une hausse encore plus importante du facteur multiplicateur du RTT.

De nombreux problèmes peuvent être résolus par le biais de techniques d’allègement de charge sur le serveur d’origine : goulots d’étranglement au « first mile » (aux alentours réseaux du serveur), capacité de l’infrastructure du serveur d’origine à s’adapter à la demande des utilisateurs via, par exemple, l’interruption des liaisons TCP/IP, la répartition de charge sur les serveurs, la compression des contenus, le chiffrement/déchiffrement SSL, etc. Quant aux goulots d’étranglement sur le « last mile » (réseau coté ISP et client) et à la bande passante disponible avec une connexion Internet, ce problème devient moins prépondérant à mesure que les utilisateurs s’équipent de connexions haut débit. Les problèmes de performances au niveau du « middle-mile » font donc l’objet de davantage d’attention. Il s’agit ici d’optimiser à la fois le RTT et son facteur multiplicateur, qui sont principalement responsables de la dégradation des temps de réponse pour les bases mondiales d’utilisateurs.

Approches communes pour une meilleure diffusion des applications

Alors que les entreprises déploient toujours davantage de processus métiers sur Internet via des applications et services Web, un certain nombre de solutions et de technologies sont nées pour tenter d’enrayer les problèmes liés à la diffusion des applications.

Les solutions potentielles doivent être agnostiques du point de vue du type de contenu (dynamique ou statique), bidirectionnelles (émission et téléchargement) et doivent prendre en charge non seulement les interactions de navigateur à serveur, mais aussi les services Web nécessaires aux interactions entre serveurs. Les solutions visant à améliorer la diffusion des applications doivent, de surcroît, être capables de déjouer les déficiences du réseau néfastes au temps de propagation et à son facteur multiplicateur. Une telle approche exige un ensemble de techniques capables d’optimiser trois couches distinctes : 1) le routage, 2) le transport et 3) les applications. Ces trois éléments combinés favorisent l’obtention du meilleur temps de réponse possible pour les applications.

Au total, pas moins de 30 à 50 allers-retours sont considérés comme une norme pour les applications basées sur le Web.

Le RTT et son facteur multiplicateur sont responsables de la dégradation des temps de réponse pour les bases mondiales d’utilisateurs.

L’optimisation de la diffusion d’applications intervient à trois niveaux : 1) le routage, 2) le transport et 3) les applications

Page 6: Les clés pour optimiser la performance des applications Web

Services Akamai pour l’accélération des applications 4

Les approches visant à améliorer la diffusion des applications se divisent en plusieurs catégories :

• Renforcement des capacités du centre de données

• Appliance de diffusion d’application

• Services de CDN (Content Delivery Network) traditionnels

• Services ADN (Application Delivery Network)

Renforcement des capacités du centre de données

L’approche traditionnelle pour résoudre les déficiences des applications Web consiste à construire des centres de données plus volumineux, en ajoutant de ce fait des serveurs et de la bande passante pour répondre à la demande, et en transférant les applications et contenus au plus près des utilisateurs distants. Les entreprises peuvent par exemple déployer un centre de données sur chaque côte des États-Unis, un en zone EMEA et un autre en région Asie/Pacifique. Plusieurs problèmes se posent avec cette approche pour le moins radicale. Tout d’abord, la multiplication d’une infrastructure en vue de gérer les pics de demande est une solution coûteuse qui, lors des périodes de creux, conduit à une sous-exploitation des ressources engagées. De plus, bien que le fait d’ajouter des centres de données allège effectivement les goulots d’étranglement sur le « middle mile » pour les utilisateurs situés à proximité immédiate d’un centre, une telle configuration nécessite la réplication et la synchronisation des données, d’où un surcroît de coût, de complexité et de risques en termes d’intégrité. Une telle approche s’avère en totale opposition avec la tendance actuelle consistant à consolider les serveurs et leurs données. En outre, l’investissement dans de nouveaux centres de données n’est jamais un objectif en soit en matière de stratégie d’entreprise.

Appliance de diffusion d’application

Des solutions spécialisées ont vu le jour pour éviter les problèmes liés à l’alourdissement des centres de données, et permettre l’amélioration des capacités de montée en charge et l’optimisation de la diffusion des applications. Les systèmes de diffusion d’applications se répartissent en deux grandes catégories : les contrôleurs de diffusion d’applications (ADC, Application Delivery Controllers) et les contrôleurs d’optimisation de réseaux WAN (WOC, WAN Optimization Controllers).

Les contrôleurs ADC sont conçus pour permettre une commutation entre les couches 4 à 7. Ils sont désormais dotés d’une large gamme de fonctionnalités telles que l’équilibrage de charge local, le déchargement du protocole SSL ou la compression. Ces dispositifs sont destinés aux centres de données d’entreprises mis en frontaux de serveurs Web.

Certes, de tels dispositifs permettent une certaine amélioration des performances, mais il ne s’agit là que d’une seule variable de l’équation. En se limitant au traitement des informations délivrées en sortie du centre de données, ces solutions ne permettent pas de résoudre les goulots d’étranglement qui surviennent dans la partie la plus obscure d’Internet, c’est-à-dire entre les contrôleurs ADC et les utilisateurs. Les applications bidirectionnelles se comportent particulièrement bien avec les méthodes de diffusion point-à-point, mais il n’apparaît guère plausible de déployer un tel dispositif partout où les utilisateurs sont susceptibles d’accéder au Web. Compte tenu des restrictions d’encombrement liées à l’implantation d’un contrôleur ADC dans un centre de données, il s’avère impossible d’opérer une optimisation point-à-point en déplaçant la logique de traitement ou les services au plus près des utilisateurs. Cette restriction limite les possibilités d’optimiser de façon adéquate les goulots d’étranglement au niveau du « middle mile », d’où l’obtention de RTT et de facteurs multiplicateurs très en deçà de l’optimum.

Les contrôleurs WOC sont des solutions point-à-point dans lesquelles les dispositifs ou les clients logiciels sont implantés à chaque extrémité d’une liaison WAN, afin de permettre la mise en forme, la compression et l’optimisation des protocoles qui amélioreront les temps de réponse des applications. En outre, ces solutions sont susceptibles d’améliorer les performances au niveau des succursales qui ont souvent du mal à exploiter certaines applications en raison d’une saturation des liaisons WAN. Ces contrôleurs peuvent être envisagés pour les intranets répartis sur un petit nombre de sites, mais sont en revanche inadaptés aux sites disséminés, car les ressources informatiques mises en jeu nécessiteraient le déploiement et la gestion de solutions WOC au niveau de chaque site d’utilisateurs finaux. De plus, cette configuration ne résout pas le problème des requêtes d’applications extranet ou de services Web sur Internet émises par une communauté d’utilisateurs résidant hors de l’environnement WAN d’entreprise, par exemple sur le site d’un associé ou d’un client.

CDN (Content Delivery Network) traditionnels

Les réseaux CDN traditionnels placent en cache les contenus statiques à proximité des utilisateurs, en faisant généralement appel à une architecture centralisée composée d’un petit nombre de fermes de serveurs. Les réseaux CDN traditionnels ne permettent pas de gérer les goulots d’étranglement au niveau du « middle mile » pour les applications web dynamiques d’entreprise, ce qui les rend inaptes à optimiser les applications telles que SAP, Oracle ou Outlook Web Access, dont les possibilités de stockage en cache sont réduites, voire inexistantes.

Il n’est guère plausible d’envisager le déploiement d’un tel dispositif dans chaque endroit où un utilisateur est susceptible d’accéder au Web.

La multiplication d’une infrastructure en vue de gérer les pics de charge est une solution coûteuse qui, lors des périodes de creux, conduit à une sous- exploitation des ressources engagées.

Page 7: Les clés pour optimiser la performance des applications Web

Services Akamai pour l’accélération des applications 5

Services ADN (Application Delivery Network)

Les services ADN (Application Delivery Network) constituent une plate-forme Internet complète visant à améliorer les performances des applications Web. Les réseaux ADN surpassent les capacités des réseaux CDN traditionnels et des appliances de diffusion d’applications (ADA) en tentant de résoudre les goulots d’étranglement au niveau du « first mile » et du « middle mile », tout en optimisant la diffusion des applications dynamiques, des contenus statiques et des services Web. En mettant en œuvre une surcouche réseau à Internet, les fournisseurs de services ADN exploitent l’intelligence d’Internet tout en combinant des techniques employées par les dispositifs ADA et les réseaux CDN, dans le but de transformer Internet en une plate-forme de diffusion à hautes performances pour les applications Web et compatibles IP.

Les réseaux ADN permettent d’assurer un temps de réponse de niveau local aux utilisateurs mondiaux, une disponibilité élevée, une montée en charge à la demande et une sécurité de niveau professionnel, sans modifier les applications ni l’infrastructure du centre de données. Typiquement, des engagements sont offerts sur les performances applicatives et sur un taux de disponibilité garanti. Par ailleurs, le coût total de possession de ces solutions est inférieur à celui d’autres approches reposant sur des dispositifs matériels. Enfin, la prévisibilité des coûts est meilleure, car elle repose sur des échéances mensuelles.

Réseau EdgePlatform d’Akamai pour la diffusion d’applications

Akamai EdgePlatform est un réseau taillé sur mesure pour la diffusion d’applications, qui accélère la diffusion des applications et des contenus sur Internet, en augmentant la disponibilité, l’adoption et la productivité côté utilisateur. Cette plate-forme, qui exploite un réseau mondial de serveurs dédiés et reliés par des protocoles optimisés, vient appuyer d’une manière transparente le réseau Internet, afin d’optimiser la diffusion d’applications et de contenus à la demande.

En s’attaquant aux points faibles des protocoles centraux d’Internet, Akamai a créé un système de diffusion situé en bordure de réseau, conçu pour améliorer les performances, la disponibilité et la montée en charge des applications dynamiques IP, des services Web et des contenus statiques.

Une observation plus approfondie de l’architecture et des technologies EdgePlatform d’Akamai montre les raisons pour lesquelles il s’agit d’une méthode idéale pour diffuser les applications en offrant des temps de réponses de niveau local aux utilisateurs mondiaux. Pour mieux comprendre la nature des technologies sous-jacentes d’EdgePlatform, il convient de passer en revue les principaux composants de cette architecture et d’expliquer comment s’effectue la diffusion des applications.

Une plate-forme distribuée de serveurs

La plate-forme est constituée d’un surcouche réseau point-à-point regroupant un ensemble de serveurs Akamai spécialisés appelés « Edge servers », ou serveurs « noeuds ». Ces « Edge servers » sont dispersés à proximité quasi immédiate des utilisateurs finaux et au plus près de l’infrastructure d’origine. Il s’agit d’une plate-forme mondiale, comprenant plus de 48 000 serveurs répartis dans environ 1 000 réseaux et 70 pays. Grâce à cette plate-forme, 90 % des internautes du monde se trouvent à une simple encablure de réseau d’un serveur Akamai Edge.

La vaste répartition des serveurs « Edge » implique que pour chaque internaute et chaque application centralisée correspondante, il existe une zone couverte par des serveurs Edge à proximité immédiate, quel qu’en soit le lieu. Akamai emploie un système de mappage dynamique intelligent pour acheminer chaque utilisateur final et chaque emplacement d’origine vers un serveur « Edge » situé de façon optimale, et dont le rôle s’apparente à une piste de décollage et d’atterrissage sur le réseau d’Akamai. Les serveurs Edge d’Akamai, une fois mappés entre eux, forment un réseau point-à-point direct entre les applications centralisées et les utilisateurs. En rapprochant au maximum les serveurs des utilisateurs, il est possible de réduire le temps de latence et les pertes de paquets. Ce principe est fondamental pour optimiser les goulots d’étranglement au niveau du « middle mile », c’est-à-dire réduire les temps de propagation et le facteur multiplicateur associé, car le routage et le débit TCP sont largement dépendants de ces deux paramètres.

Les réseaux ADN permettent d’assurer un temps de réponse de niveau local aux utilisateurs mondiaux, une disponibilité élevée, une montée en charge à la demande et une sécurité de niveau professionnel, sans modifier les applications ou l’infrastructure du centre de données.

Akamai a créé un système de diffusion capable d’améliorer les performances, la disponibilité et la montée en charge des applications IP dynamiques, des services Web et des contenus statiques.

90 % des internautes du monde entier se trouvent à une simple encablure de réseau d’un serveur Akamai Edge.

Page 8: Les clés pour optimiser la performance des applications Web

Services Akamai pour l’accélération des applications 6

Architecture point-à-point

Lorsqu’un utilisateur accède à une application Web optimisée par Akamai, la demande du navigateur est traitée par le système de mappage dynamique d’Akamai, qui achemine la demande vers un serveur Edge voisin, appelé « ES-User ». Grâce à ses dizaines de milliers de serveurs distribués, Akamai bénéficie d’une grande proximité avec les utilisateurs, ce qui permet d’obtenir des performances optimales. Il est en effet indispensable de se rapprocher autant que possible de l’utilisateur, sans toutefois résider chez le client lui-même.

De même, un mappage est effectué avec un serveur Edge d’origine idéalement situé à proximité du serveur d’applications du client : c’est l’instance « ES-Origin ». La requête applicative transite de l’instance ES-User vers l’instance ES-Origin, dont le comportement s’apparente à un serveur proxy pour le serveur d’applications. L’instance ES-Origin autorise la session de navigation, à la suite de quoi il adresse la requête au serveur d’applications, obtient une réponse en retour, puis réachemine la réponse en amont. À ce stade, les deux serveurs périphériques point-à-point d’Akamai, Es-User et Es-Origin, se sont intercalés de façon transparente sur la route qui sépare le client du serveur d’applications, sans modifier le processus de transfert ou l’infrastructure applicative.

Plusieurs technologies clés sont appliquées dans cette architecture point-à-point pour accélérer la diffusion, augmenter la disponibilité et améliorer les capacités de montée en charge des applications.

Akamai SureRoute réduit le temps de propagationSureRoute élimine les déficiences du protocole BGP

Akamai SureRoute est conçu pour supprimer les inefficacités du protocole BGP en exploitant les serveurs Edge du réseau d’Akamai, ainsi que des algorithmes propriétaires, afin de fournir une cartographie en temps réel du mappage d’Internet, qui permet ainsi de prendre des décisions de routage d’après les performances. À un moment donné et pour chaque utilisateur, SureRoute détermine un chemin performant et disponible pour établir les communications entre deux instances EdgeServer d’Akamai. SureRoute procure deux types d’avantages :

• Optimisation du RTT (temps de propagation), en se substituant aux décisions de routage effectuées sur le dernier segment de réseau par le protocole de routage d’Internet (BGP). Cet aspect est de plus en plus important du point de vue des applications dont le facteur multiplicateur du RTT est faible, comme c’est le cas pour les appels de services web, les applications AJAX et les applications en temps réel de type Voix-sur-IP.

• Optimisation de la disponibilité des applications Internet, en assurant que les requêtes utilisateurs atteindront le serveur d’applications indépendamment des goulots d’étranglement d’Internet (pannes des FAI, baisses de tension, ruptures de communications inter-réseaux, pannes de réseau, tremblements de terre, etc.)

Les décisions de routage optimisées sont actualisées en temps réel par SureRoute à mesure que l’état de l’Internet évolue. Toutes les communications effectuées sur le réseau point-à-point composé des deux serveurs Edge d’Akamai transitent via un chemin d’accès optimisé par SureRoute, ce qui assure un RTT optimal pour chaque aller-retour effectué sur Internet.

Le protocole Akamai réduit l’effet multiplicateur du temps de propagation

Le protocole Akamai comble les lacunes des protocoles TCP et HTTP en exploitant le réseau de serveurs Edge d’Akamai. Pour traiter les goulots d’étranglement sur le « middle mile », qui influent sur le facteur multiplicateur du RTT, le protocole Akamai élimine les « bavardages » au sein des protocoles Internet en les remplaçant par un protocole plus efficace, qui sert de moyen de communication entre les serveurs Edge d’origine et ceux situés côté utilisateur final.

Les requêtes parviennent au serveur ES-User sous forme de trafic HTTP ou TCP standard, puis sont converties suivant le protocole Akamai pour transiter sur les grandes dorsales réseau d’Internet, jusqu’au serveur ES-Origin. Toutes les communications effectuées via le protocole Akamai entre les deux serveurs Edge reposent sur le routage optimisé par SureRoute. Le trafic est ensuite reconverti au format HTTP(S) ou TCP standard dès qu’il atteint l’instance ES-Origin.

Akamai SureRoute fournit une cartographie en temps réel du mappage d’Internet qui facilite les décisions de routage d’après les performances.

SureRoute garantit que les requêtes des utilisateurs parviendront au serveur d’applications indépendamment des goulots d’étranglement d’Internet.

Le protocole Akamai supprime les lacunes des protocoles TCP et HTTP en exploitant le réseau de serveurs Edge d’Akamai.

Page 9: Les clés pour optimiser la performance des applications Web

Services pour l’accélération d’applications Akamai 7

Le protocole Akamai profite également de la réduction du temps de propagation offerte par SureRoute, car le temps de latence et les pertes de paquets sont déterminants sur les débits atteignables par ce protocole. Ces deux paramètres, lorsqu’ils fonctionnent en association, permettent d’atteindre des performances encore plus élevées que s’ils étaient appliqués séparément.

Le protocole Akamai élimine les déficiences du protocole TCP

• Aucune « poignée de main en trois temps » n’est nécessaire pour l’établissement ou l’interruption d’une liaison : l’instance ES-Origin établit un ensemble de connexions persistantes et de longue durée avec les serveurs Edge d’Akamai. Ces connexions sont disponibles à la demande, afin de gérer les multiples requêtes de navigateurs ou de machines.

• Aucun démarrage lent n’a lieu : les serveurs périphériques maintiennent une connaissance détaillée des conditions du réseau, avec des indicateurs comme la bande passante ou le temps de latence. Grâce à cette vigilance, ils peuvent communiquer immédiatement avec une taille de fenêtre optimale, évitant ainsi le mécanisme de démarrage lent du protocole TCP et des changements dynamiques basés sur l’état du réseau.

• Routage garanti : grâce aux connexions persistantes et à la logique applicative entre les serveurs Edge et le serveur origine (centre de données), Akamai définit un canal, qui permet à de multiples requêtes HTTP d’être multiplexées sur cette simple liaison, sans avoir à attendre de réponse.

• Retransmission intelligente : les serveurs Edge conservent une quantité d’informations significative, telles que le temps de latence entre les serveurs, la taille des fenêtres de transmission ou encore les informations de séquencement des paquets, offrant ainsi une méthodologie de retransmission plus intelligente que le timeout du protocole TCP.

Le protocole Akamai élimine les déficiences du protocole HTTP

Le protocole HTTP, noyau du navigateur, amplifie les lacunes du protocole TCP en exigeant, pour acheminer une page, l’établissement et la destruction de multiples connexions TCP.

• Préchargement intelligent : les fonctionnalités de préchargement intelligent, de compression et de mise en cache aident à éliminer les lacunes du protocole HTTP. Lorsque l’instance ES-User renvoie une page au navigateur, elle analyse simultanément la page HTML de base de façon récursive et prévoit les futures requêtes vers les objets qu’elle contient, en émettant immédiatement les requêtes correspondantes vers le serveur d’origine. Le contenu est ensuite intégralement réacheminé sous forme de transaction unique vers l’instance ES-User via le protocole Akamai exclusif. Dès que le navigateur reçoit la page de base, il émet une requête destinée à charger le reste des éléments qu’elle contient. Ceux-ci sont déjà mis en attente sur l’instance ES-User, puis livrés comme si le serveur d’origine se trouvait à seulement quelques millisecondes de distance.

• Compression : la compression est appliquée aux données lorsque celles-ci sont transportées, afin de réduire la consommation de bande passante.

• Mise en cache : tout contenu stockable en mémoire cache est sauvegardé sur l’instance ES-User située à proximité des utilisateurs, puis servi à partir de ce cache.

Le protocole Akamai élimine les « poignées de main en trois temps » et le démarrage lent.

Le préchargement intelligent, la compression et la mise en cache contribuent à compenser l’inefficacité du protocole HTTP

Le « middle mile » sans intervention d’Akamai Situation au niveau du « midle mile » avec intervention d’AkamaiExemple de diffusion d’application Web (HTTP sur TCP/IP) Exemple de diffusion d’application Web (HTTP sur TCP/IP)

Entre Atlanta et Sydney, l’affichage d’une page Web typique de 70 Ko contenant 25 objets nécessite 31 allers-retours. L’affichage de la même page Web ne nécessite désormais plus que 5 allers-retours, accompagné d’une réduction du RTT.

Temps de réponse total = 8,20 s : 95 % du temps total de réponse est perdu au niveau du « middle mile ». Temps de réponse total = 1,45 s. Akamai réduit à 5 le nombre d’allers-retours

Centre de données (Atlanta)Centre de données (Atlanta)

Serveurs Edge d’Akamai

1 12 23 3

« First Mile »Temps de traitement des

applications et de génération des contenus

0,25 secondes

« First Mile »Temps de traitement des

applications et de génération des contenus

0,25 secondes

« Last Mile » Temps de transfert

selon la bande passante0,20 secondes

« Last Mile » Temps de transfert selon la bande

passante 0,20 secondes

« Middle Mile »

Temps de propagation (RTT) x allers-retours

7,75 secondes

(31 x 250 ms)

« Middle Mile »

Temps de propagation (RTT) x allers-retours

1,00 secondes

(5 x 250ms)

Utilisateurs mondialement répartis (Sydney) Utilisateurs mondialement répartis (Sydney)

Internet

Page 10: Les clés pour optimiser la performance des applications Web

Services pour l’accélération d’applications Akamai 8

Délestage de l’infrastructure d’origine

Les serveurs Edge d’Akamai sont dotés de techniques d’optimisation des performances au niveau du « first mile » qui consistent à délester les serveurs d’applications des tâches de traitement intensives afin d’améliorer les performances et la montée en charge des applications :

• Gestion des connexions TCP : en délestant l’instance ES-Origin des connexions TCP/IP cliente (désormais gérées par les instances ES-User), les ressources de traitement du serveur d’origine peuvent être entière ment dédiées à la diffusion des contenus. Les performances du serveur d’origine peuvent également être améliorées en créant de multiples connexions TCP/IP persistantes entre l’instance ES-Origin et le serveur d’applications d’origine.

• Interruption et délestage des liaisons SSL : les clients peuvent opter pour une transmission en clair depuis leurs serveurs d’origine et une transmission sécurisée entre les instances Edge (via le protocole SSL) et le navigateur. Grâce à cette configuration, les clients bénéficient des avantages du SSL, tout en délestant le traitement de ce protocole sur l’infrastructure Akamai, d’où une meilleure montée en charge et un gain de performances sur le serveur d’origine.

• Compression : les serveurs Edge compressent et décompressent dynamiquement les données, tout en réduisant la charge de travail nécessaire à leur transfert sur Internet. Les objets au format texte tels que les scripts HTML ou Java présentent un potentiel de compression élevé, dont le taux peut atteindre 90 %.

• Mise en cache : les serveurs Edge peuvent être configurés en vue de stocker automatiquement en mémoire cache les contenus statiques tels que les objets de page de faible volume (exemple : petits fichiers .gif, .doc ou .jpg), ou les documents et ressources numériques tels que les logiciels et les fichiers multimédia. Ceci permet à la plate-forme d’Akamai de délester l’infrastructure d’origine d’une partie du traitement et de réduire le temps de réponse des pages en servant le contenu stockable en cache au plus près de l’utilisateur final. Akamai utilise les standards de l’industrie dans ses contrôles et ses heuristiques de gestion de la durée de vie des données en cache.

Performances et montée en charge éprouvées des applications

La plate-forme distribuée d’Akamai EdgePlatform, le système de prévision en temps réel du routage SureRoute et le protocole de communication à haut rendement d’Akamai fonctionnent en symbiose pour doper les performances et la montée en charge des applications et services Web dynamiques. En résolvant les problèmes liés aux protocoles fondateurs d’Internet, il est possible de réaliser des gains en temps de réponse spectaculaires, indépendamment du type ou de la classe d’application. Akamai améliore considérablement les montées en charge des serveurs au sein du centre de données, le libérant de ses goulots d’étranglement. Le traitement des contenus statiques peut être délesté hors du centre de données via la mise en mémoire cache et la création de dispositifs de stockage persistants répliqués. Enfin, le délestage des contenus et du stockage réduit la bande passante nécessaire à la prise en charge des applications. Le protocole d’Akamai résulte en une réduction spectaculaire des requêtes sur les serveurs, qui libère ainsi de précieuses ressources tout en optimisant la puissance et l’encombrement physique dans le centre de données.

Les serveurs Edge d’Akamai délestent les serveurs d’applications des tâches de traitement intensives afin de garantir de meilleures performances et une meilleure montée en charge des applications.

Akamai réduit de façon spectaculaire le nombre de requêtes au serveur, libérant de précieuses ressources tout en optimisant la puissance et l’encombrement physique dans le centre de données.

Avec Akamai

PERFORMANCES GLOBALES AVEC ET SANS AKAMAI

Seco

ndes

Sans Akamai

Page 11: Les clés pour optimiser la performance des applications Web

Services Akamai pour l’accélération des applications 9

La sécurité sur le Net

Face au nombre croissant de menaces, Akamai vous permet d’éliminer les points d’entrée publics sur les infrastructures d’entreprise en confiant aux serveurs Edge d’Akamai le soin de prendre en charge l’initialisation des requêtes, à l’extérieur du centre de données. Avec ses serveurs Edge, Akamai assure une protection périphérique de votre réseau, des couches 3 à 7, en verrouillant un périmètre de sécurité et en maintenant les attaques à l’extérieur du centre de données. Pour cela, Akamai associe plusieurs technologies telles que la sécurité DNS, une protection DDoS sur la couche IP, le contrôle d’accès en couche IP par adresse IP ou géo-localisation, ou encore la dissimulation de l’adresse HTTP ou HTTPS d’origine. Les techniques d’intrusion étant devenues de plus en plus sophistiquées, Akamai étend sa protection à la couche application : des fonctionnalités de pare-feu sont mises à la disposition des applications Web, grâce auxquelles les serveurs d’Akamai peuvent être configurés en vue de contrôler les requêtes émises en couche 7, et ainsi garantir que seules les demandes valides seront retransmises vers le serveur origine.

Impact sur l’activité

EdgePlatform d’Akamai est une extension puissante de l’infrastructure Web d’entreprise. Grâce à la possibilité d’optimiser la diffusion des applications et des services Web dynamiques, les entreprises peuvent désormais centraliser leur infrastructure sans compromettre les performances ou la disponibilité de leurs applications et ce, que la diffusion ait lieu sur un seul continent ou à l’échelle mondiale. L’absence de modification des applications Web, des serveurs ou des clients se traduit par un faible niveau de risque et une rentabilisation rapide.

La plate-forme d’Akamai répond à cinq exigences essentielles, dans le cadre d’une solution unique et complète adaptée à toutes les catégories d’applications Web :

• Des performances de niveau LAN pour les utilisateurs du monde entier : les serveurs Edge mondialement répartis, SureRoute et le protocole Akamai fonctionnent ensemble pour garantir aux utilisateurs du monde entier et aux applications et services Web dynamiques des temps de réponse similaires à ceux des réseaux LAN.

• Disponibilité élevée : les contenus dynamiques qui doivent être extraits depuis le serveur origine sont protégés grâce à la capacité offerte par SureRoute d’éviter les goulots d’étranglement d’Internet en temps réel.

• Capacités prédictives : pour répondre à la demande des applications dynamiques et des services Web, qui peuvent connaître des pics de trafic plusieurs centaines de fois supérieurs au trafic normal à tout moment.

• Sécurité de niveau entreprise : pour permettre une diffusion sécurisée et accélérée des applications SSL, ainsi qu’une intégration aisée au sein des systèmes et processus d’authentification existants, tels que la prise en charge de la certification client X.509 ou la conformité au regard de la conformité PCI de l’e-commerce.

• Coût d’acquisition réduit au minimum : aucun coût n’est dissimulé puisque l’investissement se résume à l’abonnement mensuel. Aucune modification des applications ou des infrastructures n’est requise, d’où une rentabilité rapide et un faible niveau de risque.

D’après un livre blanc récemment publié par IDC et intitulé « Détermination du retour sur investissement des Services hébergés pour l’accélération des applications Web », le bénéfice annuel moyen réalisé par une organisation utilisant la solution EdgePlatform d’Akamai pour la diffusion d’applications Web d’entreprise s’élève à 42 830 dollars par tranche de 100 utilisateurs d’application. En considérant uniquement les bénéfices réalisés sur les coûts d’infrastructure, la rentabilité du déploiement intervient en moyenne au bout de 1,8 mois pour les entreprises étudiées, soit un retour sur investissement annuel moyen de 582 %.

Akamai vous permet d’éliminer les points d’entrée publics de l’infrastructure d’entreprise, en garantissant que seules les requêtes valides seront retransmises vers le serveur origine.

La solution EdgePlatform d’Akamai permet aux entreprises de centraliser leur infrastructure sans compromettre les performances ou la disponibilité de leurs applications.

Page 12: Les clés pour optimiser la performance des applications Web

Services pour l’accélération d’applications Akamai 10

Résumé

La solution EdgePlatform d’Akamai permet de s’affranchir des goulots d’étranglement de performances et des problèmes de montée en charge d’Internet, en s’intercalant intelligemment entre l’utilisateur et le centre de données d’origine, jouant le rôle de réseau de substitution à Internet et transformant ce réseau en une plate-forme fiable, à disponibilité élevée, capable de diffuser des applications. Outre ses techniques uniques d’accélération des protocoles, telles que SureRoute ou le protocole d’Akamai, qui visent à supprimer les goulots d’étranglement au niveau du « middle mile », le réseau de diffusion d’applications Akamai met à votre disposition une plate-forme unique, combinant de multiples technologies avec élégance, autorisant une exécution et une montée en charge à la demande pour les applications et services Web dynamiques.

Alors qu’un nombre croissant d’applications d’entreprise deviennent compatibles avec Internet, d’autres configurations telles que les applications traditionnelles client/serveur, de virtualisation, en temps réel ou à caractère sensible ne sont pas bien adaptées à l’interfaçage avec le Web. En outre, de telles applications sont également vulnérables aux goulots d’étranglement sur le « middle mile », pour les mêmes raisons. Les services d’accélération des applications IP d’Akamai tirent profit des possibilités offertes par la plate-forme distribuée EdgePlatform, de SureRoute et du protocole Akamai, afin d’améliorer n’importe quelle application IP, en renforçant les enjeux économiques, la montée en charge et la disponibilité liés à Internet en tant que plate-forme de diffusion d’applications.

La différence Akamai

Akamai® propose l’unique service hébergé du marché capable de diffuser des contenus (riches, interactifs et dynamiques) sur le Web et d’accélérer les

transactions et les applications sur Internet. Aujourd’hui Akamai compte parmi ses clients quelques-uns des plus grands groupes internationaux et ce dans

l’ensemble des secteurs d’activités. Véritable alternative aux infrastructures Web centralisées, la plate-forme mondiale d’Akamai s’appuie sur plusieurs dizaines

de milliers de serveurs dédiés qui, en plus d’offrir un point de vue incomparable sur le réseau Internet, apportent aux entreprises l’envergure, la fiabilité, la

visibilité et les performances nécessaires pour déployer leurs modèles économiques et mener à bien leurs activités en ligne. Akamai conforte l’Internet dans son

rôle d’information, de divertissement, d’échange et de communication. Pour découvrir la différence Akamai, allez sur www.akamai.com.

Akamai Technologies, Inc.

U.S. Headquarters

8 Cambridge Center

Cambridge, MA 02142

Tél. : 617.444.3000

Fax : 617.444.3001

Numéro vert (USA) : 877.4AKAMAI

(877.425.2624)

Akamai Technologies France

119-121 Avenue des Champs Elysées

75008 Paris

Tél. : +33 (0)1 56 69 62 00

Fax : +33 (0)1 56 69 62 01

www.akamai.com

www.akamai.fr

©2008 Akamai Technologies, Inc. Tous droits réservés. Toute reproduction complète ou partielle sous

quelque forme ou support que ce soit sans autorisation écrite expresse est strictement interdite.

Akamai et le logo en forme de vagues d’Akamai sont des marques déposées. Les autres marques de

commerce mentionnées dans ce document sont la propriété de leurs détenteurs respectifs. À la

connaissance d’Akamai, les informations utilisées dans la présente publication sont exactes à la date

de leur parution ; ces informations sont sujettes à modification sans préavis.