Mainframe 2, le retour : le Client-Serveur de seconde génération.
Jean-Marie Chauvet
Chronique, Le Monde Informatique, 1997

Le mainframe est de retour. Mais cette fois il est virtuel.

A peine les différents modèles de l'architecture client-serveur définis par le Gartner Group commencent-ils de diffuser dans les départements informatiques, auprès des équipe de développement, qu'arrive une seconde génération d'outils. Le client-serveur dit de seconde génération se définit en termes d'échelle et de complexité : ses applications se situent à l'extrémité des axes quantitatifs du nombre d'utilisateurs (500 ou plus), de la fréquence des transactions (50 par seconde ou plus), du volume des bases de données (10 gigaoctets ou plus), et de leur topologie (réseau national ou mondial). Exactement là où l'on trouvait le mainframe il y a quelques années. Mais cette fois la "plate-forme" d'exploitation est distribuée - en réseau de clients et de serveurs -, hétérogène - multiplicité des systèmes d'exploitation et des bases de données -, et orienté objet - par opposition aux codes monolithiques.

Telecommunications Inc. (TCI), basé à Denver, est le premier cablo-opérateur américain avec 12 millions de foyers connectés. L'avènement des services digitaux - "pay-per-view", télévision interactive, etc... - dans le contexte américain de dérégulation des télécommunications contraint TCI, qui avait mené jusqu'alors une croissance par absorption de compagnies de câbles locales, à un formidable effort de "re-engineering" de son métier et de son support informatique. Au cœur de cet effort l'application SUMMIT gère les abonnements, la connexion via décodeurs au canaux satellites, la répartition des programmes sur les bandes de fréquences allouées, la définition des nouveaux services, les cycles de facturation, la relation avec les banques et la maintenance des équipements des utilisateurs. Installée sur deux sites à Denver et Dallas - dans une configuration de backup et réplication complète - elle met en jeu plusieurs dizaines de serveurs UNIX haut de gamme, des "disk arrays" par groupe de 20 fois 100 gigaoctets, un réseau privé RNIS au protocole T1 et un second au protocole ATM. SUMMIT fonctionne 24 heures sur 24, 7 jours sur 7, sur un réseau national, hétérogène de plateformes d'Apple Computer (PowerMacs), de SUN Microsystems (Solaris), et est entièrement bâtie avec des outils client-serveurs (Neuron Data, et Sybase pour les serveurs de données). Ce type d'applications se distingue des applications client-serveur individuelles ou départementales classiques suivant plusieurs axes qui caractérisent cette "seconde génération".

Il y a une forte corrélation entre ces types de développement - au niveau de l'informatique de l'entreprise toute entière - et les efforts globalement couverts par la notion de "business process reengineering". Un des axes important de classification des outils client-serveur de seconde génération repose sur le support de la visualisation et l'assistance à l'analyse des processus de l'entreprise. L'autre aspect est évidemment celui des performances des applications réalisées : l'outil doit en particulier isoler les développeurs du paramétrage complexe des moniteurs transactionnels et offrir une variété ouverte de choix.

Une des caractéristiques essentielles du client-serveur de seconde génération est la distribution effective des traitements et des données. Les outils de seconde génération doivent nécessairement permettre la reconfiguration dynamique, sans interruption, de l'application lorsque le réseau matériel change - défaillance, ou évolution du matériel ou de la topologie, sans avoir à revenir à un cycle de développement et de redéploiement. Cette reconfiguration dynamique doit également pouvoir être exécutée pour équilibrer et optimiser l'usage de la bande passante du réseau, indépendamment du code applicatif lui-même.

L'accès aux données doit reposer sur une génération de code qui prend avantage des caractéristiques natives distinctives du gestionnaire de bases de données, et également permettre la définition de règles métier et de "triggers" identiques d'un gestionnaire à un autre ou même entre différents gestionnaires de données.

La métaphore utilisée pour le développement doit être suffisamment riche pour accommoder les avantages économiques de réduction des coûts de développement et de maintenance qu'on est en droit d'attendre. Séparation claire des données, processus, et descriptions des environnements d'exploitation ; développement rapide des interfaces utilisateurs graphiques ; distribution du code applicatif ; réutilisation d'objets logiciels métier sont les technologies clefs se devant d'être intégrées dans ces outils.

Enfin la portabilité sur des environnements hétérogènes en termes d'environnement de fenêtrage, de systèmes d'exploitation, de bases de données, de langages de programmation et 4GL/Scripts, et de protocoles réseaux, est essentielle. A ce titre l'interopérabilité entre les standards objets émergents que sont OLE, OpenDoc - pour le desktop, et CORBA de l'OMG pour les brokers d'objets, est critique.

Les acteurs, issus du marché des bases de données, du Génie Logiciel, ou fournisseurs d'outils individuels ou départementaux, se précipitent et sont les premiers à entretenir la confusion sur les besoins techniques. Or l'enjeu est essentiellement économique. Les limitations des implémentations du client-serveur, entendu au sens maintenant classique d'un frontal graphique (usuellement sous MS Windows) à une base de données relationnelles sur un serveur, lorsqu'il s'agit de passer aux échelons supérieurs du volume de données et du nombre d'utilisateurs, ont un impact économique et organisationnel important sur la capacité de l'entreprise à soutenir le rythme des changements de conditions de ses opérations.


Back to Dassault Développement

Copyright (c) 1998-2002 by Dassault Développement