RDC : Cedya Systems, quelle mission pour les réseaux informatiques de demain ?

Merci pour le partage...Share on Facebook19Share on Google+1Tweet about this on TwitterShare on LinkedIn10

Vu le changement de la conception d’un réseau informatique au 21è siècle, Cedya Systems s’inscrit dans la vision d’innover le secteur du réseau informatique en République Démocratique du Congo.

La conception d’un  réseau  informatique,  telle que nous la  connaissons est  en train  de changer,  elle évolue.  La  façon  dont  on  concevait  les  réseaux  informatiques  aux  débuts  des  années  90  est tellement différente de la façon  dont les réseaux informatique se conçoivent aujourd’hui. Il en va de même  des  sociétés,  fruit  de  l’innovation,  qui  de  par  leur  système  de  fonctionnement,  sont directement liées a l’âge et la maturité des types de réseaux existant au moment de leur conception.

Cela s’explique par le fait que, dans les années antérieures, une société informatique se devait avant tout  être  d’abord  une  société  des  produits,  les  services  suivaient  après.  On  pouvait difficilement imaginer  avoir  une  société  informatique  qui  ne  fournissait  aucun  matériel.  Les  exemples  sont tellement nombreux, entre autre: IBM, Apple, Xerox, HP, et la seule exception  étant  Microsoft, qui depuis le  départ, s’est rendue  indépendante  de tout  matériel  informatique. Au fur  et  à  mesure que le réseau a évolué, les sociétés qui en dépendaient ont à leur tour migré, partant du  concept société fournisseur  des  produits  et  services,  vers le  concept  société  fournisseur  uniquement  des  services. Elles sont devenues  de plus en plus des sociétés  de logicielle plutôt  que de matériel, laissant ainsi la conception  et  le  développement  des  équipements  informatiques  à  des  sociétés  spécialisées  et expérimentées ayant prouvé leur maturité dans le domaine.

Aujourd’hui  il  est  de  plus  en  plus  fréquent  de  trouver  des  sociétés  multinationales  qui  ne s’organisent qu’autour d’un site web, avec comme les exemples les plus frappant  Facebook,  Twitter, LinkedIn et YouTube.

 

La raison  derrière  cette  évolution  de l’infrastructure informatique et des  sociétés  qu’elle supporte est simple. La ségrégation du matériel et du logiciel facilite l’innovation et permet de faire avancer la technologie.

 

Aujourd’hui, les  ingénieurs  en conception des  logiciels ne se  préoccupent  pas  de la  façon  dont  un microprocesseur fonctionne,  ou est  conçu. Ils ne se demandent pas si tel ou tel autre  chipset sera présent  dans une machine pour supporter  une  application. Encore moins ils  ne se  préoccupent  pas de la livraison des  ordinateurs  ou  téléphones  intelligents ayant l’une des applications  conçues, non. Ils se concentrent uniquement sur le  développement  du logiciel, en sachant qu’il  y’aura du matériel fiable,  sécurisé,  et  disponible  selon  les  besoins. C’est  cette  ségrégation  des  rôles  qui  est  utile  à  la science, à l’informatique.

 

De  nos jours,  un  réseau  informatique,  ainsi que  son comportement, dans n’importe quelle  société, est directement lié  aux équipements  qui le composent. Par équipement, on entend  bien le  matériel et le logiciel. Ces équipements arrivent déjà prêts pour l’emploi, avec une configuration initiale prête à  être  utilisée,  avec  plusieurs  fonctionnalités  incorporées.  Le  premier  problème  qui  se  pose,  est qu’on n’attend pas de tous les  équipements  de jouer le  même  rôle  au sein d’un  réseau.  Il y  a des équipements  de couche d’accès  desquels  on attend certaines  fonctionnalités  qui ne devraient  être disponibles qu’aux  équipements  de couche d’accès. Les  équipements  de couche de distribution, ou ceux  des  périphéries  du  réseau  devraient  à  leur  tour  avoir  des  fonctionnalités  nécessaires  à  leur fonctionnement dans leurs  entités  respectives. Ainsi, du moment que les concepteurs ne savent pas avec  précision  quelles  sont  les  fonctionnalités  attendues  chez  les  clients  pour  tel  ou  tel  autre équipement,  ils  conçoivent  des  équipements  génériques  aux  fonctionnalités  multiples.  Un commutateur  à  lui seul peut  être  utilisé  à  la couche d’accès, distribution,  cœur  du  réseau  ou  même dans le centre de calcul des  données. Il revient donc  à  l’utilisateur d’adapter le commutateur  à  sa fonction, en faisant abstraction de toutes les autres  spécifications  techniques disponibles. On parle alors  de  la  configuration  d’un  équipement  réseau.  D’où  quelques  questions: pourquoi  acheter  un commutateur pour lequel  on utilisera que 5% de ses fonctionnalités? N’y aurait-il pas moyen d’avoir un  commutateur  conçu  uniquement  pour  la  couche d’accès,  et  qui  n’aurait  que  des  spécifications techniques utiles à  la couche d’accès ?  Ce qui est sûr, est qu’il couterait moins cher, et serait parfait pour le rôle que l’on attend de lui, sans trop de superflu.

 

Le  deuxième  problème  est  lie  à  l’accès  quasiment  impossible  au  code  source  des  équipements réseaux.  Prenons l’exemple d’une société  XYZ ayant  besoin de modifier le comportement  par défaut d’un commutateur ou d’un routeur lors de la réception de tel ou tel autres types trame ou paquet de données.  Cela  est  quasiment   impossible.  Les  ingénieurs  ne  se  rabattent  alors  qu’aux  rôles  des utilisateurs  avancés, et ne doivent  alors  que  naviguer  dans les limites  définies  par le fabriquant du commutateur.

 

Les  sociétés  veulent  avoir  des  équipements  qui  répondent  exactement  à  leurs  besoins,  et  dont  ils pourraient  ajouter,  diminuer,  et  modifier  les  fonctions  selon  les  exigences  du  business  sans  pour autant faire appel au fabriquant, encore moins devoir acheter un autre équipement réseau.

 

Tout comme il a été  possible de virtualiser une station de travail, un serveur, et maintenant tout un centre de calcul des données,  il est  également  possible de virtualiser un réseau. Si le comportement général  d’un  réseau  devait  dépendre  de  deux  composants  indépendants  l’un  de  l’autre,  mais complémentaire,  alors  il  serait  beaucoup  plus  facile  de  se  concentrer  sur  un  composant,  de  le développer et de l’améliorer pour qu’il puisse toujours être au meilleur de lui-même, et bien remplir la tâche qui lui a été confiée.

 

La virtualisation des  fonctionnalités  réseaux  s’avère  donc  impérative. Il faudrait  réellement  séparer le  matériel  des  équipements  réseaux, qui se charge de transmettre les  données, du logiciel, qui se charge  de  définir  les  politiques  de  fonctionnement  du  réseau.  Le  réseau  revêt  alors  une  identité double  à  la  fois  physique  et  virtuelle.  Le  physique  reste  le  domaine  fort  des  équipementiers traditionnels,  et  évolue  en  suivant  certains  standards,  tandis  que  le  virtuel  se  concentre  alors  sur l’intelligence même au sein des réseaux, et devient alors le domaine de l’innovation par excellence.

 

Cedya Systems s’inscrit dans cette vision du réseau informatique ou il devient impératif de séparer le matériel  du logiciel, et surtout de développer  la partie logicielle sur base des solutions open source. Nous  pensons  qu’un  réseau  ne  doit  pas  être  à  100%  physique.  En  rendant  les  fonctionnalités  du réseau  virtuelles,  nous  voulons  permettre  aux  sociétés  clientes  d’avoir  des  centres  des  données  a 100% virtuels (autrement appelés  Software Defined Data Center :  SDDC, angl.),  qu’ils pourront gérer selon leur besoin, sans se  préoccuper  des centres de  données  physique, dont la gestion est  laissée aux fournisseurs des services.

 

Mettre sur point une infrastructure  réseau  définie  logicielle  (autrement  appelée  Software Defined Networking :  SDN,  angl.),  allant  des  fonctionnalités  basiques  d’un  réseau  a  la  virtualisation  des centre des données, le tout reposant sur des solutions open source, voilà notre mission.

Yannick Zagabe, CEO – Cedya Systems

Christian Kas

Spécialiste de la réussite et du bien-être.