Le développement de la fibre optique

La fibre optique va envahir les réseaux de communication et est en voie de développement et de déploiement jusqu’à l’utilisateur final .
Les premiers opérateurs telco (télécommunications) comme France Telecom et les ISP (=fournisseurs d’accès internet FAI) annoncent leurs stratégies de déploiement .
Free annonce le déploiement de solutions FTTH, France Télecom en installe lui aussi, Neuf suit aussi mais en FTTB, Alice prévoit qu’il participera aussi au phénomène .
A Paris, le déploiement de la fibre de chacun des opérateurs devrait se faire systématiquement par les égouts .
Même le département des Hauts de Seine prévoit d’équiper tout le département par une desserte en fibre soit plus de 500 000 logements .
Le mouvement est lancé .
Les architectures choisies permettent une progressivité des déploiements avec des solutions mixtes fibre/cuivre ou tout fibre optique .
Pour commencer, pour les solutions mixtes, le point de desserte optique peut être plus ou moins proche de l’utilisateur : en FTTB, la fibre s’arrête en pied d’immeuble ; en FTTN ou FTTC (curb  : trottoir), la fibre s’arrête au niveau du quartier ou de la rue. Dans ces cas-là, les dernières dizaines ou centaines de mètres sont généralement réalisées sur un réseau cuivre : xDSL sur le réseau téléphonique (les conditions d’accès à la sous-boucle locale cuivre restant toutefois incertaines), CPL sur le réseau électrique, Ethernet sur câble cuivre dédié. Ces solutions intermédiaires permettent d’approcher progressivement la fibre de l’usager (en visant le FTTH à terme) et donc de lui apporter une amélioration immédiate du niveau de service (le débit sur cuivre étant d’autant plus élevé que la distance est courte), tout en étalant les investissements dans le temps.

Image FTTH1

Par la suite, il est alors possible d’étendre l’architecture en tirant de la fibre jusqu’à l’usager de bout en bout .
Nous avons alors des architectures dites
passives ou actives, selon la présence ou l’absence d’équipements actifs entre le site central de l’opérateur et les points de desserte .

Le point-multipoint passif (souvent appelé PON, passive optical network, par abus de langage) : une fibre unique part du central et dessert plusieurs habitations, lesquelles sont raccordées à cette fibre au niveau d’un équipement passif (coupleur ou splitter , sorte de « multiprise »), placé à proximité de la zone à desservir. Chaque maison reçoit toutes les informations envoyées par l’équipement central (OLT) ; l’équipement récepteur (ONT) de chaque abonné assure le filtrage. Cette architecture permet des économies sur la quantité de fibres à poser, et donc sur le dimensionnement des infrastructures d’accueil.

Image FTTH3

 le point-multipoint actif : proche du schéma précédent, le coupleur étant remplacé par un commutateur, équipement électronique capable d’aiguiller le signal. Les informations envoyées depuis le central sont traitées par le commutateur, qui les retransmet uniquement sur la fibre de l’abonné destinataire. Cette architecture, de par la présence d’éléments actifs dans l’arbre optique, est d’exploitation complexe à grande échelle.

Image FTTH2

 le point-à-point passif : chaque habitation est reliée au central par une fibre qui lui est dédiée de bout en bout . Le modèle est identique à celui de la boucle locale téléphonique traditionnelle, avec une paire de fils par abonné. Cette architecture permet une étanchéité absolue entre les lignes des différents abonnés : aucun risque de sécurité, et garantie absolue de disponibilité totale de la ligne (aucun partage de débit) . C’est l’architecture finale vers lequel tout le monde veut tendre .

Image FTTH4

Panorama de logiciels d’un système d’information (ERP, CRM, EAI, EDI, Sécurité, Supervision …) et des ports des services courants

Le système d’information d’une entreprise regorge de nombreuses applications .

Cela va des simples applications utilisateurs comme les traitements de texte aux logiciels d’administration du parc informatique comme les logiciels de supervision .

Pour les utilisateurs, on trouve des suites bureautiques avec traitement de textes, tableur, présentation, logiciel de dessin :

– Gratuit : Open office, Star Office, Koffice

– Payant : Corel Word Perfect, Microsoft Office

En particulier, les logiciels de traitement de texte sont souvent utilisés :

Microsoft Word, Open Office, Star Office (SUN), LateX (gratuit, sous Linux)

logo open office
Toujours pour les utilisateurs, on trouve les logiciels ERP (Enterprise Ressource Planning) comme Microsoft Outlook / Microsoft Exchange, Lotus Notes / Lotus Domino ou Calendar de Mozilla .

On trouve aussi les logiciels de CRM (Customer RelationShip Management, gestion de la relation client) .

Pour les développeurs, on trouve les EDI (Environnement de Développement Intégré) comme Microsoft Visual Studio .NET, ou encore Eclipse (qui est Open Source et gratuit) voir NetBeans pour le Java .
logo logiciel eclipse

Pour le développement Web, on trouve des logiciels CMS Content Management System (ou WCM Web Content Management) comme les services de publication internet comme PHPNuke ou SPIP (sous Linux, Open Source) .

Les navigateurs les plus courants sont Microsoft Internet Explorer MIE v6, Mozilla Firefox, Netscape, Konqueror (sous KDE Linux), Opéra et Safari d’Apple . NCSA Mosaic et Lynx ont disparu depuis longtemps .

On trouve aussi des outils pour réaliser des modélisations UML comme Rational Rose, Borland Together (payants) ou ArgoUML pour le java (Freeware) .
Pour faire cohabiter les différentes applications du parc informatique, il existe deux approches, l’approche des WebServices qui est normalisée ou l’approche habituelle EAI (Enterprise Application Integration) .
Il s’agit de faire cohabiter les applications et de centraliser les données sur une base unique en adaptant les formats d’enregistrement des données entre elles .
Les bases de données habituellement rencontrées sont :
MySQL ou PostgreSQL: des serveur SGBD Open Source pour de petites bases : autour de 30 000 entrées .
(PostgreSQL est plus sécurisé que MySQL .)
Oracle 8i, qui est adapté pour des volumes de données bien plus élevées .

MSSQL (Microsoft SQL Server) ou MSDE (= petit Microsoft SQL Server de développement gratuit)

Pour l’administration réseau, on trouve comme logiciels de supervision réseau et de monitoring :
Websense, Tivoli, Observer, Unicenterde Computer Associates (CA), HP Openview HP-OV, Ciscoworks, BMC Patrol (Patrol DashBoard), What’s Up de Ipswitch, Snmpc aussi, Loriot Pro de Luteus et Observer de Network Instruments, sans oublier Compaq Insight Manager SP7 (pour les SAN notamment); MOM de Microsoft, Synexsys, Patrol Visualis mais aussi NSM de Computer Associates, FLUKE ou Nagios (sous Linux et libre) .
Nagios est un très bon produit et pour vous faciliter la vie, il existe une solution Open Source Oreon qui propose un frontend à Nagios .
On trouve aussi Zabbix qui est une bonne alternative à Nagios . Hp OpenView est sûrement une des solutions les plus adéquates mais payante et difficile à prendre en main : Cette application reconnaît toutes les MIB réseau ainsi que les MIB type onduleur et bien d’autre encore …
Cependant, il faut utiliser des produits complémentaires pour pouvoir tout superviser :

– pour toutes les options de surveillance pour les produits Cisco, Cisco view
– optivity pour nortel, alcatel
– cabletron pour cabletron etc ….
La prise en main nécessite une bonne formation pour l’installation et la gestion .
En fait, souvent, une entreprise dispose de plusieurs outils de monitoring .
Par exemple, l’ensemble des outils suivants : nagios, cacti, hp openview, what’s up, ntop, hp sim, mrtg, rdd tool, smokeping .
Cela lui permet de couvrir toutes les informations qu’elle recherche .

Pour étudier le trafic sur notre réseau (ex : y a t’il un trafic VoIP, P2P ?), on dispose aussi de sondes réseaux ou sniffers .

Exemples : Etherreal (sous Linux ou Windows), TCPDUMP sous Linux (=WINDUMP, WINPCAP sous Windows), SNORT (qui est aussi un IDS)

Pour la gestion du trafic applicatif et de la bande passante sur les liens WAN, il existe des serveurs comme PacketShaper de Packeteer …

packeteer

PacketShaper sauvegarde les performances des applications suivant les priorités de l’entreprise, grâce à la surveillance, au contrôle et à la compression du trafic sur les liens d’accès WAN et Internet susceptibles d’être congestionnés .

serveurs packeteers

Pour la surveillance des activités des salariés, le dépannage et l’assistance à distance des cellules de maintenance technique, ou pour suivre un cours dans une salle informatique en déportant son écran sur tous les ordinateurs de la salle, il existe des télécommandes d’ordinateurs comme Timbuktu Pro, Symantec PcAnyWhere 11.5 ou encore l’assistance à distance intégré dans XP voir le bureau à distance si on dispose d’un serveur Terminal Server de client léger.
On trouve aussi Microsoft SMS Server 2003 (= System Management Server) qui est un système d’administration de parcs informatique et réseaux de Microsoft (Je l’ai utilisé dans l’entreprise VAI CLECIM) . Il permet la prise de contrôle à distance via Terminal Server .
Enfin, il existe VNC de la société AT&T qui est gratuit, Open Source sous licence GNU/GPL et que j’ai également eu l’occasion de déployer .

Tous ont une approche client-serveur . Une machine dite cliente prend le contrôle d’une machine distante appelée serveur .
Concrètement, l’écran de la machine serveur apparaît dans une fenêtre de la machine cliente et, à partir de celle-ci, l’utilisateur peut effectuer toute opération ou commande pour piloter la machine serveur exactement comme s’il était physiquement au pupitre de cette machine .

Une même machine peut jouer à la fois le rôle de serveur et celui de client .
Plusieurs clients peuvent se connecter en même temps sur un même serveur VNC .
VNC fonctionne avec le protocole de communication réseau TCP/IP et se base sur le protocole Remote Frame Buffer (RFB) pour l’affichage graphique . L’encodage utilisé transmet la première image puis uniquement les pixels qui ont changé . Si l’image change beaucoup, alors la bande passante utilisée augmente sensiblement (une vidéo en plein écran par exemple) .
– RealVNC – La version officielle disponible sur les OS Windows, Linux, Solaris et HP-UX .
ViNCe – Client VNC pour RISC OS
OSXvnc – Serveur Macintosh

Chicken of the VNC
– Client Macintosh
VNC Scan Enterprise Console – VNC Manager pour installer VNC sur des ordinateurs distants

Au niveau de la sécurité, on peut réaliser une audit de sécurité sur un réseau avec NESSUS ou de façon plus élémentaire sur les petits réseaux Microsoft avec l’outil gratuit MBSA Microsoft Baseline Security Analyser v2.0 .
Pour le pare feu logiciel, on trouve :
ZoneAlarm Professionnel, Zone Alarm (XP, gratuit), Norton Personal Firewall (Symantec), OutPost (gratuit pour usage non commercial) .

On trouve aussi des pare feu professionnel chez des grossistes spécialisés sécurité comma Allasso ou RISC Technology .

Spectre Applicatif Allasso

Pour détecter les spywares, il existe en version gratuite :

SpyBot Search and Destroy, Microsoft Windows Defender = Microsoft Antispyware (ancien nom), Ad-Aware

Pour les anti-virus, on trouve :

Sophos: anti-virus sous Linux ou Windows (payant) (=leader des antivirus d’entreprises en terme de performances)

McAfee Antivirus

– AVG Control Center de Grisoft

– Norton Internet Security et Norton Anti-virus de Symantec (1 inconvénient : une charge mémoire élevée)

– Kaspersky Anti-virus

– Antivir Personal Edition

MSRT Malicious Software Removal Tool : l’outil de suppression des logiciels malveillant de Microsoft

Pour compléter la protection Pare-Feu / Anti-virus, il peut être utile d’ajouter un détecteur d’intrusion (NIDS = Network Intrusion Detection System) .
C’est un programme qui suit le trafic de votre réseau à la recherche de tentatives d’intrusions . Il peut prévenir l’administrateur du système dès qu’une telle intrusion a lieu. On peut ou pas le coupler à un mur pare-feu . Les réponses peuvent consigner le détail des attaques, mettre fin à la connexion et reconfigurer le pare-feu pour se préserver d’attaques ultérieures. Il est complémentaire à un anti-virus et à un pare-feu et ne nécessite pas de mise à jour de signatures. Il identifie les intrusions d’un point de vue technique . Il étudie les flux autorisés par le firewall et contrôle qu’ils n’ont pas de comportements suspects . Il vérifie que les applications autorisées par le pare feu se comportent comme attendu et, par exemple, ne vont pas examiner le contenu de dossiers confidentiels .
On trouve notamment :

GesWall (sous Windows) : cumule les fonctions de firewall et antispyware (pré-configuré)

-PrevXHome (gratuit pour les particuliers)

SNORT : C’est l’IDS le plus déployé et utilisé et il est disponible sous Linux / Unix mais également Windows comme freeware Open Source . Il peut aussi être utilisé comme sonde .

Les ports des services généralement rencontrés sur les machines d’un parc informatique sont :
7 echo; 21 et 20 ftp File Transfer Protocol; 22 ssh Secure Shell; 23 telnet; 25 SMTP; 70 GOPHER; 79 FINGER; 80 HTTP; 110 POP3 Post Office Protocol – Version 3; 119 NNTP Network News Transfer Protocol; 137 et 138 et 139 NETBIOS-NS NETBIOS Name Service; 143 IMAP 4, IMAP 2 Interim Mail Access Protocol v2; 161 et 162 SNMP Simple Network Managment Protocol; 179 BGP Protocole de routage Border Gateway Protocol; 194 IRC Internet Relay Chat; 443 HTTPS; 517 TALK (commande talk Linux); 1521 Serveur SGBD Oracle; 3306 Mysql Server; 8080 HTTP Alternatif

Sécurisation électrique (onduleur), du stockage (RAID 0,1…) et des réseaux (Firewall, DMZ, FireProof)

Cet article va traiter de la sécurisation informatique suivant trois points : le contrôle des tensions électriques, la sécurisation du stockage sur disque dur via les différents systèmes RAIDs et enfin, la sécurisation du réseau local d’entreprise vis à vis du reste du réseau Internet par l’utilisation d’une zone DMZ et d’un firewall .

Tout d’abord, il faut se protéger des variations intempestives de tension et des coupures de courant .

Pour cela , il existe des onduleurs et des parasurtenseurs .
onduleurs
Les onduleurs fournissent du courant en prenant le relais après une coupure de courant ou une baisse de tension constatée en entrée alors que, les parasurtenseurs, rabaissent la tension lors des surtensions pour éviter d’abimer le matériel .
Les onduleurs, aussi appelés UPS (Uninterruptable Power supplies), délivrent du courant à partir de leurs accumulateurs incorporés . Il existe deux types d’onduleurs : on-line et off-line . Avec les onduleurs off-line , les accumulateurs ne sont pas branchés en permanence et prennent le relais uniquement en cas de besoin . La tension de sortie n’est donc pas très régulière pendant le temps de réaction . Avec les onduleurs on-line, les accumulateurs sont branchés en permanence et insérés dans le circuit électrique ce qui permet une régularité de la tension de sortie que le courant provienne du réseau (secteur) ou des accumulateurs .
La capacité des onduleurs n’étant pas infini en cas de coupure, il faut qu’ils puissent envoyer un signal aux ordinateurs quand ils sont presque vide avant la coupure définitive du courant et afin d’arrêter les ordinateurs correctement . Pour cela, ils délivrent en général trois signaux : « tout est ok », « alimentation », « batterie faible » .Des logiciels s’installent sur les postes pour interagir avec les onduleurs : sous Linux Suse, il existe le programme Genpower très facile à configurer . Celui ci doit être éxecuté à chaque démarrage en ajoutant, sous Linux des lignes de lancement dans /sbin/init.d/boot, sous Windows sous forme de service .

Dernier point, le redémarrage automatique des ordinateurs ne doit pas être trop rapide après l’extinction des postes suite à une coupure sinon ils utiliseront le peu d’électricité restant dans les accumulateurs vides pour redémarrer et ils n’auront pas le temps de se ré-éteindre correctement . Il faut donc placer la temporisation dans LILO à un niveau élevé .

De plus, dans les grands réseaux, il faut plusieurs onduleurs pour alimenter tous les postes . Les ordinateurs sont donc répartis entre un onduleur maître et un ou plusieurs onduleurs esclaves . Les divers états de l’UPS sont distribués par le maître aux esclaves à travers le réseau .

En ce qui concerne le stockage, afin de prévenir les pannes et incidents et une éventuelle perte des données stockées sur les disques durs, on utilise des systèmes RAID (Redundant Array on Inexpensive Disks) . Il s’agit d’une méthode de stockage d’informations réparties sur plusieurs disques durs par mirroring des disques, par l’utilisation de somme de contrôle checksum (codes détecteurs ou correcteurs d’erreurs) ou le placement de blocs de données sur plusieurs unités de disques .
Les systèmes RAID peuvent être mis en oeuvre soit, de façon logicielle, soit de façon matérielle .

Par logiciel : C’est la solution la plus économique car elle est uniquement logicielle et ne met pas en oeuvre de matériel spécifique . C’est uniquement un logiciel présent dans le noyau du système d’exploitation (le kernel Linux par exemple) qui permet de gérer différents RAID sur les disques durs . Cette solution fonctionne aussi bien avec les disques SCSI que IDE ou SATA . Elle présente l’inconvénient d’offrir une vitesse réduite par rapport aux solutions purement matérielles .

Par le matériel : Cette solution revient plus chère car elle nécessite un contrôleur de disques RAID . Ce sont des cartes enfichables (ISA presque entièrement disparu ou) PCI qui sont installées dans l’ordinateur à la place des contrôleurs classiques IDE ou SCSI . Avec le RAID matériel, le noyau des OS n’a pas besoin d’être adapté .

baie de disques RAID
Six configurations RAID différentes existent : RAID 0, 1, 2, 3, 4, 5
Les principaux et les plus rencontrés sont 0, 1, 4, 5 .

RAID-0 : Deux disques sont couplés . Les données sont réparties par blocs et chaque moitié de bloc est placée sur chaque disque simultanément . De ce fait, la vitesse d’écriture et de lecture est bien plus rapide . Ce procédé est appelé striping . Par contre, en cas de défaillance d’un des disques, toutes les données sont perdues; il n’y a donc pas de tolérances aux pannes .

RAID-1 : Deux disques sont couplés et les données sont écrites en double sur les deux disques . L’un est l’image exacte de l’autre . En cas de défaillance d’un des disques, l’autre étant intact, on récupère toutes les données et la tolérance aux pannes est assurée . Par contre, on perd la moitié de l’espace disponible puisque nos données sont en double .
On parle de mirroring .
RAID-4 :

On utilise 3 disques avec des sommes de contrôle ou checksum . Deux disques contiennent les données et le troisième les sommes de contrôle . La somme de contrôle est calculée par exemple par un OU exclusif logique . Quelque soit le disque qui tombe en panne, il est toujours possible de reconstruire le contenu du disque défaillant à l’aide des données des deux autres disques . L’avantage du RAID-4 par rapport au RAID 1 est qu’on peut utiliser les deux tiers de la place au lieu de la moitié . Par contre, l’écriture de donnée sur un disque de donnée, oblige à calculer et écrire la somme de contrôle sur le troisième disque et ralenti donc l’écriture . De plus, le troisième disque est 2 fois plus sollicité que les autres .

RAID-5 :

C’est un perfectionnement de RAID-4 où les données et les sommes de contrôle sont ventilées sur les trois disques de sorte que chaque disque reçoit une charge égale . On utilise toujours les 2/3 de l’espace pour les données (le reste pour le contrôle) . C’est le meilleur des procédés .


Enfin, afin de protéger les réseaux internes des entreprises et autres organisations, des menaces externes provenant de l’Internet et de réseaux non sécurisés, on utilise une architecture Firewall ou Pare-Feu . L’objectif est de se prévenir contre l’accès non autorisé à des données et à des ressources privées . Au passage, le firewall peut permettre de journaliser les échanges, le trafic de données et les tentatives d’accès . Toutes les architectures de Firewall repose sur un Firewall .
Il en existe 3 types de base :

Filtres de paquets :

Ils analysent les paquets de données au niveau de la couche réseau (couche 3 OSI) et peuvent les filtrer en fonction des adresses de l’expéditeur et du destinataire, du protocole et des numéros de port des applications .

Relais de circuits :

Les relais de circuits fonctionnent au niveau de la couche transport (couche 4 OSI) . Ils permettent d’utiliser des applications construites sur les protocoles de transport de cette couche (TCP connecté et UDP déconnecté) .

Passerelles au niveau applications (passerelle de flux applicatifs)

Comme son nom l’indique, ils travaillent au niveau des applications . On définit des proxies (serveurs proxy) spécifiques pour chaque application qui peuvent journaliser et auditer le trafic . Ces proxies peuvent faire du « store and forward » (FTP, SMTP, http …) ou être interactif (Telnet) suivant le type de trafic . De plus, ils peuvent gérer des mécanismes d’authentification (par exemple pour Rlogin ou Telnet) . Le temps de latence est plus élevé que le « Filtering Gateway » (=Filtres de paquets) .

Le paramétrage du firewall doit obéir à une logique stricte : On interdit tout par défaut . On définit les autorisations uniquement pour ce dont on a besoin . « Tout ce qui n’est pas autorisé est interdit » .
Il faut valider l’utilisation de chaque service réseau . C’est la démarche de paramétrage la plus sûre .
Exemple de commande Linux de paramétrage du firewall pour le serveur de courrier :
ipfwadm –F –a accept –b –P tcp –D mail.mafirme.fr 25

Les architectures de Firewall sont nombreuses suivant les moyens financiers qu’on est prêt à leur consacrer et le degré de sécurité recherché .

Voici les schémas de deux variantes : la plus simple (moins coûteuse) et la plus compliquée (plus sûr mais chère)

Cas 1 : Firewall avec routeurs de filtrage
Firewall avec Routeur de filtrage

Le routeur de filtrage contient les autorisations d’accès basées exclusivement sur les adresses IP et les numéros de port .

Cas 2 : Firewall avec sous réseaux de filtrage (zone DMZ démilitarisée)
Firewall avec zone DMZ

Un Firewall avec sous-réseau de filtrage se compose de deux routeurs : L’un est connecté à Internet, et l’autre à l’Intranet/LAN. Plusieurs réseaux bastions peuvent s’intercaler pour former entre ces deux routeurs, en quelque sorte, leur propre réseau constituant une zone tampon entre un Intranet et l’Internet appelée «zone démilitarisée» . Les serveurs accessibles par Internet (HTTP, FTP, E-mail, DNS, Gopher) doivent être placés dans cette zone démilitarisée . De l’extérieur, seul l’accès aux réseaux bastions est autorisé. Le trafic IP n’est pas directement transmis au réseau interne. De même, seuls les réseaux bastions, sur lesquels des serveurs Proxy doivent être en service pour permettre l’accès à différents services Internet, sont accessibles à partir du réseau interne.

Le Routeur interne :
Autorise le trafic entre le bastion 1 et les machines internes et inversement.
– Interdit tout autre trafic.

Le Routeur externe :
Filtre le trafic entre le monde extérieur et le bastion 2.
– Interdit tout autre trafic direct (donc pas de trafic direct entre le réseau interne et l’extérieur).

Le bastion interne :

Assure les fonctions de DNS vis à vis du réseau interne en envoyant ses requêtes au bastion externe.
Assure les fonctions de proxy avec authentification pour les applications distantes (Telnet, Rlogin, FTP)
Assure le relais du Mail sortant(SMTP).

Le bastion externe :
Filtre au niveau applicatif les paquets en direction du réseau interne
Assure le relais X11 de l’extérieur vers l’intérieur, sur autorisation.
Assure le relais du Mail entrant(POP).
Assure les fonctions de DNS vis à vis du réseau externe.

Le bastion interne héberge des services .
On peut installer sur l’ordinateur bastion un serveur de noms comme NAMED sous Linux par exemple . Ce serveur DNS est recensé comme serveur de noms sur le réseau . Les ordinateurs internes envoient leurs requêtes de noms à l’ordinateur bastion qui, grâce à sa connexion à Internet, traite la requête DNS et retransmet la réponse au client .
Sur l’ordinateur bastion, on trouve aussi un serveur proxy (=masquage IP = masquerading host=1 seule IP Internet pour de nombreuses IP LAN)comme SQUID sous Linux . Les clients du réseau ne s’adressent pas directement à Internet mais passent par le proxy après que les logiciels clients utilisés soient paramétré pour le passage par proxy (ex : navigateur http, FTP, Gopher …) . Le proxy a un cache qui peut faire gagner du temps si il possède déjà les données requises dans le cache .
L’ordinateur bastion peut enfin jouer le rôle de serveur de messagerie central . Il est alors spécifié comme serveur SMTP sut tous les ordinateurs du réseau et joue aussi le rôle de serveur POP3 . Précisément, il réceptionne le courrier des clients et le réexpédie sur Internet (fonction SMTP). Quand aux messages en provenance de l’Internet, ils sont réceptionnés sur l’ordinateur bastion qui les redistribue localement aux différents destinataires (fonction POP3 ou IMAP4) . Tout cela nécessite l’installation de SENDMAIL sous Linux et d’un démon POP3 . De plus ; l’ordinateur bastion doit être recensé comme échangeur de courrier (enregistrement MX sous Linux) dans la base de données DNS du domaine de la société .
Exemple d’entrée DNS : IN MX 10 mailserver.mafirme.fr
A noter que l’ordinateur bastion et le serveur de messagerie peuvent être deux machines différentes mais dans tous les cas, le serveur de messagerie doit aussi être dans la zone DMZ (=démilitarisée) .

Le pare feu peut limiter les débits et constituer un goulet d’étranglement des performances réseaux .
«Je prends une trame, je l’examine, je la transmets ou la bloque en fonction de règles… », tout cela prend du temps.
Les tâches que le Firewall a à accomplir sont très exigeantes en termes de charge CPU. L’installation d’un FireWall sur un serveur plus puissant ne résout pas tous les problèmes de capacité . De plus, tout le trafic passe par le firewall qui est alors un élement vital . Si il tombe, tout le trafic est bloqué .
Aussi, il existe une architecture dite FireProof : Il s’agit de multiplexer le travail de filtrage sur plusieurs firewalls ce qui permet de répartir les charges et de lutter contre les pannes : Si un Firewall tombe en panne, puisqu’il n’est pas le seul, le travail est répartit automatiquement sur les autres et le réseau n’est pas bloqué .


Firewall avec FireProof

Choix, téléchargement et installation de systèmes d’exploitation

Les systèmes d’exploitation du marché sont nombreux .
On trouve principalement les systèmes Microsoft et les systèmes UNIX .
Microsoft : Windows 98, Windows ME, Windows XP Home Edition et Professional Edition, NT Workstation et NT Server, 2000 Professionnel et 2000 Server, 2003 Server, Windows Vista
UNIX : Linux et ses distributions(Red Hat, Fedora, Suse, Mandrake, Debian …), FreeBSD, OpenBSD, les systèmes propriétaires : HP-UX, Sun Solaris, IBM AIX, SGI IRIX, Compaq Tru-64 …
Compaq Tru-64 IBM AIX HP-UX

Choix :
Les systèmes Microsoft s’accompagnent de produits variés et complémentaires comme Microsoft Back Office Server (administration centralisée), Microsoft Exchange (serveur de mail), Microsoft Office (suite bureautique) … Ils sont en général très intuitif, mais n’offrent pas toujours la finesse de paramétrage des systèmes UNIX .
Dans les systèmes UNIX, le système Open Source Linux est le plus en vogue .
Parmi les systèmes Linux, on choisira préférentiellement :
la distribution Mandrake (Mandriva) si on souhaite se rapprocher de Windows en terme d’ergonomie
la distribution Debian si on souhaite la distribution la plus complète avec à peu près tous les types d’applications existantes disponibles
Debian

la distribution Red Hat si on souhaite un support technique professionnel (Fedora est sa version grand public gratuite)
Red Hat

Afin
de tester le système Linux et vérifier sa compatibilité avec le matériel, l’utilisation d’un LiveCD ou CD-ROM bootable est idéal .
Je vous conseille le LiveCD Linux Knoppix qui est gratuit .
Knoppix
Avec ce live CD, l’OS et ses logiciels (Gimp, Kaffeine …) se chargent au boot sans aucune installation sur disque dur, et, cette distribution, tirée de la Debian, est toujours mise à jour . Couplé à une clef USB pour sauvegarder ses paramétrages et données personnelles, on obtient un système nomade .
Knoppix permet également le dépannage avec son système de lecture des partitions, qui permet aussi de lire les partitions Windows .
Dans le même style, on trouve Shinux (gratuit) qui offre les mêmes possibilités mais sur une clé USB avec seulement 50 Mo d’espace . Puisqu’il s’agit d’une clé (accessible en écriture) et plus d’un CD, les données sont sauvegardées .
Pour tester FreeBSD, on trouve également un LiveCD gratuit : FreeSBIE

FreeBSD
OpenBSD 3.9
est aussi un UNIX libre et gratuit comme Linux axé sur la sécurité pro-active et la cryptographie intégrée (une seule vulnérabilité à distance détectée en plus de 8 ans dans l’installation par défaut) . C’est parmi les OS les plus sûr .
Logo OpenBSD
Pour finir, Schillix
est un OS open source gratuit basé sur le code de OpenSolaris (tiré de Sun Solaris) .
Solaris
Enfin, il existe des CD de dépannage bootables (comme les anciennes disquettes de dépannage) comme Ultimate Boot CD
.
Ultimate Boot CD est un cd rom gratuit qui comporte un ensemble d’outils prévus pour dépanner/diagnostiquer une panne machine .
Les outils proposés sont entre autres :
– Des outils de test, diagnostic, sauvegarde et partitionnement de disque dont entre autres G4U pour créer des images Système et Ranish Partition Manager pour partitionner
– Des outils relatifs au CPU (processeur), à la RAM (memoire vive), aux périphériques, au BIOS
tous cela avec un support du réseau (possibilité d’accéder aux réseau)

Pour Windows XP, on trouve des Live CD mais ils sont payant, approche propriétaire oblige :
En particulier, Bouldows ou XP Live CD
. Ce dernier peut être utilisé comme CD de dépannage et permet d’accéder aux partitions NTFS contrairement à la plupart des CD de dépannage .

Afin de récupérer tous ces systèmes d’exploitation, il faut les télécharger par Internet .
En général, ils se présentent sous la forme d’un fichier .ISO . Le site de téléchargement propose en général aussi un fichier .MD5 ou .SHA .
Ce second fichier contient une somme de contrôle (checksum) ou empreinte calculée à partir du fichier ISO .
Ce second fichier permet de s’assurer de l’intégrité du téléchargement, évite de télécharger une version contenant un virus informatique et garantit que le fichier récupéré est bien celui présent sur le serveur .
Précisément, MD5 (
Message Digest 5) est une fonction de hâchage cryptographique qui permet d’obtenir pour chaque message une empreinte numérique c’est à dire une séquence de 128 bits ou 32 caractères en notation hexadécimale .
(MD5 peut aussi être utilisé pour enregistrer une empreinte d’un mot de passe, comme une sorte de chiffrement unidirectionnel . C’est le système employé dans GNU/Linux ou Linux compare la version MD5 du password avec le MD5 du password saisi .)
Quand à SHA-1 qu’on trouve de plus en plus sur les sites de téléchargement, il propose une empreinte de 160 bits plus sûr encore . Il faut contrôler que l’empreinte (MD5 ou SHA) du fichier téléchargé est la même que celle qu’indique le site .
Pour cela, personnellement, j’utilise sous Windows le logiciel WinMD5Sum
pour calculer le MD5 du fichier ISO récupéré et le comparer au MD5 fourni par le site original . De la même façon, sha1sum existe pour l’empreinte SHA .
Dans certains cas, on trouve aussi un fichier .ASC qui contient la clé publique PGP . On utilise alors le logiciel de cryptographie PGP et cette clé publique pour authentifier le téléchargement . Cette démarche de contrôle est utilisée par tous les administrateurs informatiques .

La dernière étape consiste en l’installation .
On peut procéder par une installation poste à poste avec le CD mais si on a un grand nombre de machines à installer et
qu’elles ont toutes la même configuration matérielle, alors une autre technique d’automatisation de l’installation existe qui fait gagner beaucoup de temps : le passage par une image Ghost .
Il s’agit de procéder à une seule installation sur un poste type; on réalise alors les paramétrages qu’on veut retrouver sur tous les ordinateurs (Bureau, Lecteurs réseaux, anti-virus, firewall etc …) . On crée une image disque de la partition à sauvegarder . Pour cela, il faut disposer d’une autre partition de préférence sur un deuxième disque de façon à ce que les données initiales ne changent pas . On peut aussi faire l’image à partir d’un autre OS sur une autre partition (multi-boot) : la partition dont on fait l’image sera donc stable car inactive . Dernière précaution avant de lancer la création de l’image, il vaut mieux réaliser un scandisk et une défragmentation .
Pour réaliser cette image (possiblement incrémentale, on peut alors parler de sauvegardes incrémentales d’images), on dispose de :
PolderBackup – Anglais – gratuit
Symantec Norton Ghost -depuis la version9- Français – payant : il permet le stockage d’image disque sur n’importe quel support
: Local, Serveur, Jaz, Zip, CD, CD-R, DVD …
PC Cloneur (Micro Application) Français – payant
DrvImagerXP : Il n’est compatible qu’avec Windows 2000 et XP. Il copie octet par octet les systèmes de fichiers FAT32 et NTFS et tient dans une disquette. Il sauvegarde au format ZIP et sait répartir sur plusieurs fichiers afin de sauvegarder sur CD et DVD.
DrvClonerXP
Sous Linux, on dispose gratuitement de : PartImage, Kbackup ou encore G4U .
L’image disque étant faite sur DVDs, serveurs réseaux, ou disque dur local, on peut s’en servir comme sauvegarde pour la restaurer plus tard en cas de panne ou, s’en servir pour déployer cette image sur tous les ordinateurs voulus simultanément et à distance . Dans notre cas, c’est ce qu’on va faire pour automatiser l’installation . Le logiciel Symantec Norton Ghost, propriétaire et payant, ( et sa brique Ghost Cast Server) propose justement ce déploiement multicast d’images .
Voici au bout de ce lien des slides expliquant rapidement son utilisation .
On trouve aussi des versions gratuites sous Linux avec Ka-Deploy(conseillé), UDP Cast ou CCCSS . Le document suivant peut être utile : Rapport TER
des outils de déploiement pour l’UFR Info de l’UCBL .
Grâce à ces produits, le tour est joué !

Des outils informatiques pour apprendre l’anglais

Aujourd’hui, les moyens mis à notre disposition pour apprendre l’anglais sont très nombreux .
Mon logiciel préféré dans ce but est SKYPE . Il s’agit d’un software de VoIP (Voice over IP) qui permet de dialoguer sur internet gratuitement dans le monde entier . Il présente la particularité de proposer un mode « SKYPE ME » qui permet à tout autre utilisateur d’entrer en contact avec nous, de quelques pays que ce soit et quelque soit la langue . A l’intention de notre futur interlocuteur, on peut lui laisser un message d’accueil pour lui indiquer comment on souhaite parler . Par exemple, « Parlons ensemble de la coupe du monde de football en Anglais ! » . Réciproquement, on peut chercher les utilisateurs en mode SKYPE ME (donc joignable) présent dans le monde à cet instant, en fonction de son pays et de sa langue . On peut par exemple parler à des américains parlant aussi français .
Personnellement, ce logiciel m’a permis dernièrement d’entrer en relation avec un américain travaillant à Microsoft et un américain traducteur en français de colloques .
Ce logiciel facilite aussi les échanges internationaux car il n’est pas rare de se faire inviter et loger dans un pays étranger par un de nos interlocuteurs pour visiter les Etats-Unis ou encore le Maroc …

D’autres moyens existent pour parler anglais .

Le logiciel iTunes d’Apple permet d’accéder et de télécharger des podcasts audio gratuitement sur son lecteur mp3 . On peut par exemple y télécharger des cours d’anglais débutant ou de préparation du TOEFL . De la même manière, le logiciel iTunes permet d’acheter des livres audio en anglais à enregistrer sur son stick (ex : Harry Potter) . Les livres audio ne sont pas utiles que pour les aveugles …

Pour faciliter son imprégnation, on peut installer tous ses logiciels sur son poste de travail en langue anglaise ou regarder des films DVD en anglais sous titré anglais …

Bon courage !

Réalités et futur de l’Internet et des réseaux informatiques : révolutions en cours, l’adressage IPv4 et IPv6 …

L’informatique est à l’origine d’une révolution numérique caractérisée par la dématérialisation .
Cette révolution se manifeste dans de nombreux domaines :

– Cette révolution numérique participe à une vaste révolution culturelle .

Dans le monde de la musique, l’utilisation de fichiers numérique, mp3 et wma en tête, a dématérialisé le support . De plus, l’échange de fichiers musicaux peer to peer a bouleversé la façon de consommer la musique chez les jeunes .

Positivement, elle a amené l’industrie du disque a proposé la musique par titre et plus forcément par album complet via les sites de téléchargement de musique légaux comme Fnacmusic ou Virgin . Cela a également amené une baisse de près de 40% des prix des CDs.
Cette révolution n’a jamais été décrétée par quiconque mais résulte d’un changement des habitudes que provoque les découvertes de la science et les nouveaux instruments de la technologie .
– Cette révolution concerne également les administrations qui proposent des applications web et des portails internet pour simplifier les démarches administratives (paiement des amendes, impôts sur le revenu, demandes d’attestation diverses : assedics, rmi …) .
– Cette révolution permet également le rapprochement des hommes par l’abolition des distances par les réseaux : des logiciels comme SKYPE permettent de partir à la rencontre d’autres cultures, d’autres pays et d’autres langues .

Le monde des réseaux en particulier évolue très vite au grès des progrès technique constamment entrepris . Les réseaux sans fil sont en voie de généralisation .
Sur la boucle locale (les derniers kms avant l’abonné), de nouveaux supports permettent l’augmentation des débits .
Personnellement, j’ai eu l’occasion de participer aux salons JET 2003, 2004 et 2005 de Lyon . Ceux ci regroupent les principaux opérateurs de télécommunication en concurrence sur le marché de la boucle locale . Tous les dispositifs techniques de raccordement y sont abordés comme la BLR (Boucle Locale Radio), les FH (Faisceaux Hertziens)), les LOA (Liaisons Optiques atmosphériques), les technologies du RTC xDSL, le classique Modem, les liaisons par câble ou encore la FO (Fibre Optique) . La fibre optique (multimode ou monomode) s’annonce comme une des plus prometteuses car elle offre des débits considérablement plus élevés notamment par le multiplexage par longueur d’onde . Suivant les configurations , on parle de FTTC pour Fiber To The Curve si la fibre est amenée jusqu’à l’entrée du quartier, de FTTH pour Fiber To The Home si elle est tirée jusqu’au seuil de la porte d’entrée …
L’augmentation grandissante des débits pourrait faire naître de nouvelles applications . Par exemple, dans le domaine de la chirurgie, on pourra envisager que des opérations chirurgicales soient réalisées par des robots de haute précision commandés à distance . L’échange de résultat d’imagerie médicale utilise parfois des fichiers en haute résolution et donc très volumineux . Avec les nouveaux réseaux très hauts débits, cela ne sera plus un problème . Ces fichiers s’échangeront sans problème . De la même façon, les hauts débits vont permettre de faciliter l’utilisation de la VoD (Video On Demand) ce qui pourrait à terme annoncer la fin des vidéo-clubs . Songez que d’hors et déjà, grâce aux très hauts débits offerts sur les backbones de l’Atlantique, on peut télécharger Titanic en quelques centièmes de secondes en qualité DVD .
La limitation des échanges ne dépendra plus que des délais d’acheminement et de la vitesse des périphériques d’extrémités pour écrire les données reçues .
Dans un futur relativement proche, on va observer une augmentation des périphériques reliés au réseau des réseaux, l’Internet . Afin d’adresser tous ces nouveaux équipements, la cafetière, le frigo (relié au supermarché pour passer des commandes), la télévision, le lecteur-enregistreur DVD à disque dur (pour programmer ses enregistrements du travail), la voiture, le téléphone mobile ; le système d’adressage actuel IPv4 ne suffira plus .

Petite explication sur IPv4 :
Pour l’acheminement des données et l’identification des sources et destination, on affecte à chaque poste, une adresse universelle significative, l’adresse IP . Avec la norme actuelle, IPv4, l’adresse a une longueur de 32 bits soit 4 octets (ex : 192.168.0.10) . Il existe différentes classes d’adresses : A,B, C , D et E . Seul A, B et C sont utilisées, D et E étant expérimentales .
Chaque adresse IP se compose d’une partie réseau qui détermine la classe du réseau et d’une partie hôte qui caractérise une machine individuelle au sein du réseau . Les différentes classes se différencient par la longueur de la partie réseau et la plage d’adresses utilisée .
Classe A : de 1.0.0.0 à 127.0.0.0 . La partie réseau n’utilise que le premier octet . La classe A propose un très petit nombre de réseau (128) avec un très grand nombre de machines par réseau (définis sur les 3 octets restant soit 16 777 214 hôtes par réseau maximum) .
Classe B : de 128.0.0.0 à 191.255.0.0 . La partie réseau utilise les deux premiers octets . La classe B propose un nombre moyen de réseau (16 384) avec un nombre moyen de machines par réseau (65534) .
Classe C : de 192.0.0.0 à 223.255.255.0 . La partie réseau utilise les trois premiers octets . La classe C propose un très grand nombre de réseaux (2 097 152) avec un nombre restreint de machines par réseaux (256, en fait 254 avec les adresses 0 et 255 réservées comme adresse de réseau et adresse de diffusion).
Classes

Chaque classe a une adresse IP particulière appelée masque de réseau dans lequel tous les bits de la partie réseau sont définis à 1 et tous les bits de la partie hôte à 0 .
masques

A l’aide de l’adresse Ip d’un ordinateur, on obtient l’adresse du réseau de cet ordinateur à l’aide d’un ET logique entre l’adresse Ip et le masque de réseau .
Pour chaque réseau et adresse réseau, il existe aussi une adresse IP particulière appelée adresse de diffusion . Elle reprend l’adresse réseau et tous les bits de la partie hôte sont à 1 .
A l’aide de l’adresse réseau, on obtient l’adresse de diffusion à l’aide d’un OU logique entre l’adresse réseau et le masque de réseau INVERSE .
La dernière IP particulière est l’adresse 127.0.0.1 qui est le loopback : les paquets envoyés à cette adresse ne sont pas retransmis vers l’extérieur du réseau mais sont renvoyés par l’interface réseau et ne sortent pas de l’ordinateur . Cela simule un échange réseau .
Dans de nombreux cas, il est nécessaire de diviser la plage d’adresses (A B ou C) dont on dispose en sous réseaux pour séparer des départements, des domaines d’activités, des technologies différentes, des groupes utilisant des données sensibles …
Pour former une telle subdivision, prenons un exemple .
Soit un réseau de classe C 192.9.200.0 . Ce réseau pourrait avoir 256 ordinateurs qu’on veut subdiviser en 8 sous réseaux de 32 machines (256 :8) . On utilise donc 3 bits de la partie hôte qu’on attribue à la partie réseau soit 2 puissance 3 possibilités donc 8 sous réseaux . On obtient le masque de sous réseaux et les adresses de sous réseaux suivantes :
Masques
Adresses sous réseaux

Pour les adresses de diffusion de chaque sous réseau, on fait un OU entre l’adresse de sous réseau et le masque de sous réseau inverse (0.0.0.31) .
Adresses de diffusion

On obtient les 8 sous réseaux avec les plages d’adresses suivantes :
Sous réseaux

En conclusion, la norme IPv4 met à disposition 2 113 664 adresses toutes classes confondues . Aujourd’hui, il n’y a pratiquement plus d’adresses disponibles car la taille de l’Internet a doublé tous les ans depuis 1989 . C’est pour cette raison qu’une nouvelle norme a été mise en chantier concernant IP qui offre aussi une gestion de la QoS et de la sécurité .
Ce nouveau standard est désigné sous le nom IPv6 ou IPng (IP next génération) .
Les nouvelles adresses IP comprennent 16 octets soit 128 bits . Le volume d’adressage peut donc comporter 2 puissance 128 adresses .
Entete IPV6

IPv4 est compatible avec IPv6 notamment par encapsulation des paquets IPv4 dans les paquets IPv6 . Ceci permet de ménager une phase de transition suffisante de IPv4 à IPv6 pour que les constructeurs de matériaux et d’OS puissent s’adapter . Aujourd’hui, le réseau 6Bone est le réseau virtuel de test de IPv6 . G6Bone est sa branche française .

Schéma G6Bone

Références : IPv6, RFC 2460 ; ICMPv6, RFC 2463

Exemples d’architectures logicielles : le logiciel de supervision SNMP Compaq Insight Manager et le logiciel de sécurité Norton Anti-virus Corporate Edition

Sur les réseaux d’entreprises, on trouve un grand nombre de logiciels aux fonctions variées . L’administrateur système et réseaux utilise quotidiennement de nombreux produits . Ceux-ci fonctionnent suivant des architectures parfois complexe . Je vais vous en présenter 2 : un logiciel de supervision Compaq Insight Manager Service Pack 7 (CIM SP7) et Norton Antivirus Corporate Edition (NAV CE) .
Pour commencer, le logiciel de Compaq, Insight Manager, est habituellement utilisé pour contrôler l’état des différents composants (serveurs, baies, fabric) d’une solution de stockage SAN (voir l’article sur le stockage plus bas) mais il peut aussi être déployé afin de superviser un réseau LAN d’entreprise (RLE) . Sa politique de licensing permet de l’utiliser gratuitement pour les clients ayant installé un SAN basé sur des produits Compaq . J’ai eu l’occasion de l’utiliser . Il est proche dans son principe de logiciels de supervision comme HP OpenView . Il utilise une approche clients – serveur avec des agents .

Voici un schéma résumant son architecture :

CIM2

Le serveur de supervision dénommé Compaq Insight Manager 7 Management Server utilise une base de données SQL pour maintenir les informations .
Les agents sont déployés sur les machines à superviser, récupèrent le maximum de paramètres localement et font appel aux protocoles SNMP et DMI (informations supplémentaires propres à Microsoft) afin de remonter les informations vers le serveur . Les agents doivent donc être informés de l’adresse du serveur de supervision central pour y faire remonter les trames d’informations SNMP (Simple Network Management Protocol) . Localement, ce sont des bases MIB (Management Information Base) qui stockent les informations d’état des différents composants à superviser sur chaque station .
De plus, les agents détectent les services web (http) accessibles sur la machine et les référencent au serveur .
On gère la supervision à partir d’une console de supervision et un navigateur donc par l’intermédiaire du web et d’un serveur HTTP présent sur le serveur . Cette console via l’accès distant peut donc être distincte du serveur .
La console offre par l’intermédiaire du serveur la possibilité de gérer la mise à jour automatique des software Compaq et le suivi des versions des logiciels installés sur les machines que ce soit driver, bios, OS ou soft . On parle de Version Control Repository Manager et de Version Control Agent . Pour y parvenir, le serveur a besoin de pouvoir se connecter automatiquement à Internet pour pouvoir récupérer les références des dernières versions agents et soft disponibles chez Compaq : c’est la fonction active Update . Nous sommes donc amenés à configurer le firewall de l’entreprise pour permettre au serveur d’accéder à Internet par http .
Au niveau sécurité, les échanges SNMP entre les agents et le serveur sont sécurisés de façon bidirectionnelle et c’est également le cas des échanges HTTP entre la console et son navigateur web et le serveur HTTP du serveur de supervision . Ceci est possible par SSL et l’échange réciproque de certificats (porteurs des clés et permettant le cryptage et l’authentification) .
EchangeSSL

Le deuxième exemple d’architecture que je souhaite vous présenter est celle d’un anti-virus : Symantec Norton Antivirus Corporate Edition . Celle ci se révèle plus complexe qu’on le croit .
Norton Anti-virus Corporate Edition propose une architecture clients-serveur avec des clients anti-virus et au moins un serveur anti-virus . A cela s’ajoute la possibilité de pouvoir utiliser le produit Symantec System Center sur une console d’administration afin de gérer l’ensemble .
Même si on peut installer et gérer les programmes clients et serveurs Symantec AntiVirus sans Symantec System Center, l’implémentation gérée de manière centralisée est la plus efficace pour la plupart des entreprises. Par exemple, il permet de définir des groupes de clients en fonction de la configuration commune à leur appliquer .

Avec le logiciel d’administration de l’anti-virus Symantec System Center, on trouve en particulier :
– la Console Alert Management System (AMS ) :
AMS permet de faire remonter des alertes par e-mail, pager, via une fenêtre pop-up sur les clients ou le/les serveur(s) ou de les consigner dans le journal système . Il permet d’exécuter un programme ou d’envoyer une trappe SNMP à destination d’une console de supervision comme HP-OpenView ou CIM . De cette façon, le serveur Anti-virus peut être couplé à la console de supervision de l’entreprise . Les alertes sont déclenchées à l’occasion de la détection d’un virus ou d’une menace, à l’occasion d’une mise à jour des définitions de virus ou d’un arrêt imprévu d’un client Symantec Anti-virus . AMS peut aussi alerter des débuts et fin d’analyses .
– Le Serveur Symantec Anti-Virus :
Il gére les ordinateurs du réseau exécutant le programme client Symantec Anti-Virus . Ce composant assure aussi a l’ordinateur sur lequel on l’installe une protection anti-virus . Le programme serveur permet de transmettre les stratégies de sécurité anti-virus et les mises à jour de contenu aux clients réseau .
– L’utilitaire d’administration de LiveUpdate :
Il configure un serveur LiveUpdate interne comme point de téléchargement unique pour les définitions de virus et les mises à jour des produits Symantec Architecture NAV
Pour ce qui est des licences, une licence de contenu doit être allouée ou installée sur chaque ordinateur exécutant Symantec AntiVirus, clients ou serveurs . Ces licences permettent la mise à jour régulière des bases d’informations anti-virus .

Pour finir, les points importants à étudier lors du choix d’un anti-virus et qui sont présentes avec NAV sont :
– la présence de mises à jour régulières des bases d ‘informations anti-virus
– la présence d’une analyse en temps réel (real-time) de la mémoire résidente (lors des accès en lecture – écriture)
– l’analyse du secteur de boot, du mbr (Master Boot Record) et du bios à chaque démarrage
– la présence d’une recherche heuristique des virus inconnus
– la capacité de soin et de suppression des menaces
– l’analyse de la messagerie entrante et sortante

Les réseaux locaux industriels

Les réseaux informatiques et bureautiques sont les plus connus des réseaux . Ce sont ceux qui se développent le plus rapidement et qui sont le plus souvent renouvelés . En plus des réseaux bureautiques, dans le monde de l’industrie, on trouve des réseaux plus élémentaires avec peu de volumes d’information mais très fiables avec une grande disponibilité : les réseaux locaux industriels . Ils utilisent des protocoles simples et sont souvent très protégés contre les perturbations car ils sont utilisés dans des environnements difficiles et perturbés : magnétiquement, électriquement, physiquement . Ils sont par exemple utilisés dans les salles de machines de travail, sur les chaînes de montage de voitures, dans les TGV, pour la récupération d’informations de capteurs ou la synchronisation avec une base de données de badges d’authentification pour des salles sécurisées . On trouve essentiellement les protocoles Modbus, Jbus, FIP ou Bitbus pour les réseaux de terrains ou des bus CAN pour les chars, les automobiles ou les avions .

– Le protocole BitBus d’Intel a été inventé en 1983 et il s’agit d’un bus entre microprocesseurs . Il est utilisé pour les applications de contrôle et les commandes industrielles par exemple pour commander un tapis roulant sur une chaîne de montage . Il a une topologie en bus avec 250 nœuds maximum et 30 mètres à 1200 mètres sans répéteurs au plus . Il utilise comme support de transmission la paire torsadée blindée ou du fil en nappes suivant le degré d’immunité électrique requis et peut atteindre un débit de 2,4 Mbit/s . Il utilise une approche maître-esclaves avec un nœud maître et des nœuds esclaves . Le nœud maître interroge les nœuds esclaves un par un et informent les autres nœuds de leurs états .

BitBus

– Le protocole FIP Factory Instrumentation Protocol est un protocole peu ambitieux mais peu cher qui permet de réduire les coûts de raccordement des capteurs et des actionneurs . Les flux de données et les échanges doivent être connus à l’avance et ne doivent pas être destinés à changer . Il utilise une topologie en arbre et étoile avec un double médium basé sur de la paire torsadée blindée ou de la fibre optique pour la fiabilité et un débit de 1 à 5 Mbit/s . Le débit diminue avec la distance et chute à 1 Mbit/s à 4000m . Il n’y a pas de maître-esclaves mais un arbitre de bus (= une machine dédiée) et les abonnés . L’arbitre de bus exploite la liste des échanges à faire avec une liste de tâches à réaliser cycliquement, connue à l’avance et paramétrée au départ par l’administrateur .
Précisément, l’arbitre de bus émet régulièrement suivant un ordre des trames porteuses de nomenclatures (=un identifiant). Pour chaque nomenclature émise, il existe une seule station producteur et des stations consommateurs . Ce paramètrage des producteurs et consommateurs se fait sur chaque station pour chaque nomenclature émise et afin de réaliser les échanges voulus . Le TGV GEC-Alsthom utilise un réseau FIP de 1 Mbit/s pour commander des vérins et incliner le train dans les virages pour compenser la force centrifuge .

TGV FIP

– Un autre réseau est le réseau CAN Controller Area Network . Il est utilisé dans le monde de l’automobile essentiellement (Mercedes classe S) mais aussi pour les ascenseurs (OTIS), les équipements de bateaux ou les équipements médicaux … CAN fournit un débit de 125kbit/s à 1Mbit/s avec de la paire torsadée ou de la fibre optique sur des longueurs de 40 m (pour du 1Mbit) à 1000 m (pour 50kbit/s) .
Le réseau CAN utilise une topologie en bus avec un bus multi-maître .L’accès au support utilise la méthode CSMA-CR Carrier Sense Method Acces With Collision Resolution . Lorsque le bus est libre, plusieurs nœuds demandent l’émission de leur trame . Lorsque cela crée un conflit de bus, ce conflit est résolu bit à bit sur le contenu binaire de l’identificateur des stations concernées en réalisant un ET logique entre les deux identificateurs pour déterminer la station qui continue . CAN s’administre à l’aide d’un logiciel .

CAN

– Le réseau Modbus est un ancien réseau qui est encore parfois utilisé dans l’industrie .
Il est utilisé pour relier des automates programmables, des terminaux intelligents d’ateliers et des calculateurs d’ateliers . Il peut être relié et est compatible avec le protocole JBus . Il utilise une topologie en bus sans aucun support imposé (paire torsadée, fibre optique, cable coaxial bande de base ou large bande) sur une longueur de 1200 m maximum avec un débit de 50 bit à 38400 bit/s pour 255 abonnés maximum . Il utilise une architecture avec un maître et des esclaves . Le maître peut parler à un esclave en particulier et attendre sa réponse (par exemple une sonde de température) ou encore parler à l’ensemble des esclaves sans attendre de réponse . Aucun esclave ne peut émettre sans y avoir été invité par le maître .

ModBus

Synchronisation de ses données pour le travail délocalisé

Qu’on soit manager, commercial ou simplement souvent en déplacement chez des clients, il est souvent nécessaire de pouvoir synchroniser nos données personnelles via notre ordinateur portable entre le bureau et le lieu où on se trouve ou plus simplement entre la maison et le travail . De nombreuses solutions existent pour nous simplifier la vie notamment pour la synchronisation de ses calendriers et agendas (professionnels et personnels), de ses bookmarks (marque-pages), de ses fichiers personnels ou de ses courriers électroniques .

Prenons l’exemple des calendriers iCal :
Le logiciel open source Mozilla Calendar est une extension au navigateur Mozilla Firefox et au client de messagerie Mozilla Thunderbird . Il gère ses calendriers, ses rendez vous, ses tâches, ses mémos et permet de consulter ceux des autres via un serveur centralisé Webdav . Cette solution libre et gratuite convient donc parfaitement pour être déployée dans une petite structure et afin de gérer ses rendez vous, consulter le calendrier et les disponibilités des autres consultants et fixer des réunions (à la manière de Lotus Notes / Lotus Domino) .
Les calendriers y sont gérés au format iCal .
Sur Internet, justement, 2 sites webs, www.icalx.fr et icalconsult.com existent et proposent gratuitement d’héberger ses calendriers au format iCal . Il est donc possible d’y enregistrer ses calendrier et de les synchroniser à distance où qu’on soit pour y récupérer ou y ajouter des informations (rdv ou mémos) à partir du moment où on dispose d’une liaison Internet .
Pour les calendriers au format Outlook, souvent présents sur les téléphones mobiles, PDA ou Terminal BlackBerry, on peut les synchroniser avec le programme Microsoft Outlook de son ordinateur via le logiciel fourni avec le matériel et une liaison infrarouge IRDA ou radio Bluethooth .

De la même manière, si on souhaite synchroniser ses bookmarks et autres marques pages, on peut ajouter une extension à Mozilla Firefox qui permet de les synchroniser via un serveur FTP et un fichier au format XML . On peut ainsi partager ses bookmarks entre différents ordinateurs via Internet . L’extension Mozilla Foxmarks Bookmarks Synchroniser le gère sur un serveur FTP dédié de l’Internet, mais il existe d’autres extensions qui proposent de le faire sur n’importe quel FTP, par exemple celui de son FAI (ISP), pour peu qu’on ait l’espace disque suffisant pour stocker le fichier XML des bookmarks .
Enfin, il est possible de synchroniser un répertoire de fichiers sur un serveur FTP de l’Internet avec le logiciel FullSync . Cela permet ainsi de travailler par exemple sur un fichier Word et de le faire évoluer ou qu’on soit .
De façon plus habituel, il est toujours possible d’utiliser le porte-document de XP pour synchroniser ses documents mais son utilisation est moins aisée, moins souple et plus laborieuse .
Pour finir, concernant les e-mails, si on à l’habitude de les consulter à partir de plusieurs ordinateurs, il est préférable d’utiliser un serveur IMAP qu’un serveur POP . Cela permet de gérer l’intégralité de sa boite à distance et conserver ses e-mails sur le serveur . De cette façon, il ne sont pas immobilisés sur un seul ordinateur …

Le marché du stockage entreprise et grand public

Le marché du stockage en entreprise connaît ses dernières années un grand dynamisme entre les constructeurs et éditeurs de logiciels (SUN, Compaq-HP, IBM, SGI, Veritas, Legato, ADIC, DICOM, Maxtor, Network Appliance, Exabyte …) .
La manifestation « Les Universités du stockage » auquel j’ai déjà participé à plusieurs occasions est un must en la matière .
On trouve dans le secteur essentiellement les offres de solutions SAN (Storage Area Network), NAS (Network Attached Storage) et DAS (Direct Attached Storage) .

Récapitulons :
SAN, NAS et DAS
– Le SAN est un réseau de stockage dédié reliant des serveurs de fichiers à des baies de stockage(grappes de disques durs) .
Le mécano du SAN s’articule autour de commutateurs (appelés Fabrics) très haut débit et de liaisons FC (Fiber Channel) et Scsi à plus de 100 Mo/s (1 Gbit/s environ) via des interfaces réseaux présentes sur les serveurs appelées HBA (Host Bus Adapter) .
– Le NAS est un serveur de fichiers accessible par le réseau ou les utilisateurs stockent leurs données (en particulier celles qu’ils veulent absolument voir sauvegardées) . A noter que certains serveurs NAS peuvent se joindre à un SAN et ont l’interface adaptée .
– Le DAS est la solution de stockage la plus élementaire puisqu’il s’agit
d’un disque dur ou d’une baie de stockage externe directement reliée à l’ordinateur par exemple via un lien SCSI . Elle répond à des besoins de stockage local .
Les approches SAN et NAS sont plus adaptées en entreprises de façon à rationaliser le stockage en le centralisant ce qui permet une économie en administration et l’évolution des capacités se fait sans gaspillage (contrairement à de multiples stockages DAS). Le cout tôtal de possession (TCO Total Cost of OwnerShip) de ces équipements est généralement élevé mais le retour sur investissement (ROI Return On Investment) que l’on peut en attendre est, dans bien des cas, très intéressant .
Les équipements comme les SAN se trouvent essentiellement dans de grosses sociétés (comme Airbus ou VA TECH) ayant de grands besoins de capacités . Ils offrent de très bonnes performances d’accès mesurables en Mo/s comme en IO/s .
Les performances en IO/s (entrées/sorties par secondes) sont également à considérer en particulier lorsque les données proviennent de serveurs comme des serveurs de messagerie (Exchange, Lotus Domino) ou des serveurs de bases de données (Oracle, MSSQL, MySQL) . En effet, pour ce type d’application, la nature des données (messages, BDs) fait que les données sont morcelées en de nombreux très petits fichiers . La limitation des échanges se fera donc non pas en fonction du débit mais en fonction des échanges d’entrée / sortie des fichiers donc en IO/S .
Les SAN doivent en général offrir une haute disponibilité et donc une tolérance aux pannes très élevée avec souvent la règle des 5 neufs : 99,999 % de disponibilité . Ce n’est possible que grâce à une redondance des composants (double alimentation, double ventilateur, double interface réseau, grappes de disque avec systèmes RAID 1,2,3,4,5 et disque Hot swap et hot plug (retrait à chaud et ajout à chaud avec reconstitution des données manquantes automatique)) . De plus, parfois, les données du SAN sont dupliquées (réplication et externalisation du stockage) sur un deuxième site distant pour parer à tout incident (inondation, incendies …) . On parle de SWAN (Storage Wide Area Network) .
Tous ces équipements nécessitent en entreprises des sauvegardes (en plus du stockage sur disque) . La politique de sauvegarde se fait soit en ne sauvegardant que les données qui sont sur les serveurs soit en sauvegardant également les données sur les postes clients via des logiciels clients de sauvegardes installés sur chaque poste et/ou chaque serveur .
Sur les serveurs, de façon à ce que ces sauvegardes ne pénalisent pas l’accès au données trop longtemps, on réalise d’abord un snapshot (copie des métadatas en quelques secondes) de façon à pouvoir ensuite sauvegarder tout en maintenant l’accès aux données .
robots
Ces sauvegardes se faisaient jusque là sur des bandes via des lecteurs de bandes, des robots de sauvegardes et des logiciels de sauvegarde nombreux sur le marché (notamment Legato Networker et Veritas Netbackup) . Aujourd’hui, le coût du disque dur a baissé au point de rattraper le coût de la sauvegarde sur bande qui devrait disparaître au profit du disque dur et du disque optique (notamment blue-ray) .

Dans le marché du grand public, en plus des traditionnelles CD-ROM RW et DVD-ROM RW, on va voir apparaître un nouveau support : les DVD Blue-Ray et les HD-DVD .
blue-ray
Les nouveaux DVDs auront le même format que les DVDs actuels mais leurs capacités de stockage sera améliorée grâce à une gravure plus fine et à l’utilisation d’un laser bleu de 405 nanomètres de longueur d’onde .
Ainsi, les DVDs Blue-Ray auront une capacité de 25 à 50 Go en double couche et les HD-DVDs une capacité de 15 à 30 Go en double couche comparativement au 8,5 Go en double couche des DVDs actuels . Cela va permettre un meilleur archivage des données informatiques (personnelles et d’entreprises) sur ces disques; et dans le monde de la vidéo, on va pouvoir stocker des films au standard Haute Définition HD 1080p av
ec une meilleure qualité d’images . De plus, la vitesse de gravue sur Blue-Ray sera 5 fois plus rapide que les CDs, DVDs actuels .

Tunneling, VPN et sécurisation SSL du e-commerce

Les VPN ou tunnels sont des réseaux reliant deux LAN entre eux ou un LAN et un client seul, ou deux clients seules entre eux par tunneling . La liaison VPN est établie par-dessus un réseau publique comme Internet en cryptant les communications afin d’assurer la confidentialité des échanges . Le VPN présente l’avantage d’offrir des portées très élevées via Internet dans le monde entier à des coûts très faibles comparativement aux solutions traditionnelles (LL, LS, RNIS, ATM, FR …) . Par contre, la qualité de service, les délais d’acheminement et les débits ne sont pas aussi garantis qu’avec les liaisons traditionnelles et leurs contrats de services garantis .
Le VPN peut se définir à trois niveaux avec 3 technologies différentes qui peuevent d’ailleurs s’ajouter pour augmenter la sécurité =>
Niveau 2 OSI : PPTP ou L2TP (multi flux applicatifs)

Niveau 3 OSI : IPSEC (multi flux applicatifs)
Niveau 7 OSI : HTTPS (=SSL) ou SHTTP (ne sécurise qu’un flux applicatif en général http)

PPTP Point to Point Tunneling Protocol et variante L2TP Layer Two Tunneling Protocol
Ce protocole de niveau liaison, conçu par Microsoft et ouvert, encapsule des trames PPP dans des datagrammes IP en ajoutant des entêtes GRE (Internet Generic Routing Encapsulation) afin de les transférer sur un réseau IP . Il crypte également les données PPP encapsulées et les compresse . Le chiffrement utilise les fonctions de Mppe (Microsoft Point to Point Encryption) en s’appuyant sur l’algorithme de chiffrement RC4 de RSA en 40 ou 128 bits . L’authentification est gérée via PAP, CHAP ou MS-CHAP comme toutes les authentifications gérées par PPP en natif .

sono

IPSEC IP Secure
IPSec sécurise l’échange et toute la couche IP via une encapsulation de paquets IPSec cryptés dans les paquets IP (On ajoute les entêtes IP standard au paquets cryptés IPSec qui sont issus de la division en paquet du flux TCP ou UDP) . L’algorithme de chiffrement utilisé est variable (par exemple, 3-DES ou BlowFish) . Les clés sont gérées manuellement ou automatiquement échangées suivant le protocole IKE (Internet Key Exchange décrit dans RFC 2409 http://www.frameip.com/rfc/rfc2409.php) .
Cela se fait via le passage par les passerelles initiales et finales IPSEC .

sono

SSL (HTTPS) :
SSL est un protocole qui permet d’établir une communication « sécurisée » entre un client (le navigateur) et un serveur (site Internet) au niveau applicatif et c’est la solution la plus répandue actuellement grâce à sa simplicité d’utilisation et son intégration dans les navigateurs principaux du marché . SSL permet d’authentifier le serveur auquel l’utilisateur est connecté et assurer la confidentialité des informations transmises par chiffrement. Précisément, SSL, devenue dans sa dernière version TLS (Transport Layer Security), assure à la fois l’authentification (signature), le chiffrement c’est à dire la confidentialité, et enfin l’intégrité avec MD5 ou SHA .

Une session SSL commence lorsqu’une URL spéciale commençant par https est demandée, le client se connecte alors sur le port 443 du serveur . Un cadenas apparaît au bas du navigateur .
SSL fonctionne entre les protocoles TCP/IP et les protocoles de plus haut niveau HTTP, FTP, NNTP, LDAP, POP, IMAP, SMTP … SSL utilise des protocoles ayant les fonctionnalités des couches session (niveau 5), présentation (niveau 6) et application (niveau 5) de la pile de protocole et modèle OSI.

Le protocole SSL utilise le protocole SSL handshake pour échanger une série de messages entre le serveur et le client lorsqu’ils établissent leur première connexion . Voici les algorithmes et processus mis en œuvre le plus couramment au cours de l’échange SSL initial :

1/ Authentification du serveur SSL : Le serveur envoie son certificat au client . Cela permet au client de confirmer l’identité du serveur : le logiciel côté client utilise les techniques standard de cryptographie à clé publique pour vérifier que le certificat du serveur et son identifiant public (la clé publique), ont été produits par un organisme certificateur agréé par le client . Cette authentification du serveur intervient dans tous les échanges de paiement avec les sites des banques et e-commerce lors des paiements par CB .
Voici le contenu du certificat et le processus de vérification suivi :

sono

2/ Choisir les algorithmes de chiffrements que le client et le serveur supportent conjointement .
3/ Authentification du client SSL (facultative) : Elle permet au serveur de confirmer l’identité du client : c’est le même procédé que celui utilisé pour l’authentification du serveur . Cela peut être important dans le cas où le serveur est une banque, qui veut transmettre une information financière à son client et donc vérifier l’identité du destinataire .
Cette authentification du client procède souvent par l’envoi en amont d’un certificat du serveur vers le client . Le client renvoit alors son certificat obtenu en amont au serveur pour confirmer son identité . Cette échange et cette obtention de son certificat par le client est réalisée en ligne par exemple, lors de la déclaration d’impôt via internet et ce certificat est inclus dans le navigateur utilisé . L’authentification du client est assez rare et n’est mise en œuvre que lorsque le serveur doit envoyer des informations confidentielles au client .
4/ Chiffrer les premiers échanges en utilisant la clé publique du serveur présent dans le certificat reçu du serveur (pour la communication du client vers serveur) via l’algorithme asymétrique à clé publique (et privé sur le serveur) RC4 de RSA . A cet instant, on peut aussi chiffrer dans l’autre sens si le serveur a le certificat du client (et donc sa clé publique pour crypter) .
5/ Si on souhaite un chiffrement plus sûr et plus rapide par la suite, on utilise le DES (Data Encryption Standard), 3-DES ou AES (Advanced Encryption Standard) via un échange initial des clés uniques (DES …) sous la protection du protocole de chiffrement initial RSA (abandonné par la suite au cours de l’échange). L’échange est alors crypté de façon bidirectionnel . Le nouveau chiffrement est symétrique (pour DES, 3-DES ou AES) .

Pour finir, toutes les données envoyées au moyen d’une connexion cryptée SSL sont protégées par un mécanisme contre les manipulations, qui garantit que les données n’ont pas été modifiées dans leur transit comme l’algorithme de hachage MD5 ou SHA .
Les algorithmes utilisés au cours de SSL sont : DES ; DSA : Digital Signature Algorithm, algorithme utilise pour la signature numérique ; KEA : Key Exchange Algorithme, pour l’échange de clés ; RC2 et RC4 de RSA : Algorithmes de chiffrement ; RSA Key Exchange : Algorithme d’échange de clés pour SSL basé sur RSA ; SKIPJACK : Algorithme classifié de clés symétriques ; Triple-DES :DES appliqué trois fois; AES (Advanced Encryption Standard).
Les algorithmes d’échange de clés tels que KEA ou RSA Key Exchange régissent la façon dont le serveur et le client vont déterminer les clés symétriques (la même clé pour chiffrer et déchiffrer comme avec DES, AES ou SKIPJACK) qu’ils vont utiliser durant la session SSL.

Les serveurs utilisant le SSL sont : IBM, Quaterdeck, Open Market, Entreprise Server (Netscape), Internet Information Server (Microsoft), JAVA Web Server (Sunsoft), Website (O’Reilly) ou Commerce Server 2000 de Microsoft .
Les Web Agency conceptrices des sites d’e-commerce réalisent souvent des accords avec des SSII spécialisées sécurité comme ATOS et qui bénéficient de leurs propres serveurs SLL .


SHTTP :
Il existe une autre solution de sécurisation des échanges concurrentes de SSL en tant que VPN de niveau supérieur . Il s’agit de SHTTP qui est une version modifiée du protocole et des entêtes http standards permettant aussi un chiffrement avec toutes sortes d’algorithmes de chiffrement et toute sorte de protocoles applicatifs (http, SMTP ….) . Cependant, cette dernière solution n’est pas du tout répandue .


Pour en finir avec les VPN, je vous conseille de tester une de ces implémentations que j’ai déjà personnellement expérimenté : OpenVPN (sur la plupart des OS Windows et Linux compris)et Stunnel .

Comparatif des systèmes d’exploitation Microsoft et Linux

Je vais chercher à montrer les qualités et défauts de l’approche propriétaire fâce à l’approche open source et collaborative .

Produits propriétaires et Microsoft :
sono
Pour commencer, les logiciels propriétaires sont le résultat de la recherche d’entreprises privées et la société de Redmond, Microsoft en est le parfait exemple . Pour l’approche propriétaire, les codes sources sont inaccessibles et on ne peut pas faire évoluer le programme .
Ces réalisations propriétaires répondent en général parfaitement au besoin du plus grand nombre . Ils sont intuitifs et faciles d’utilisation . Ainsi, Microsoft et ses systèmes d’exploitations (9X, XP, 2000, 2003, Vista) sont au coeur de la démocratisation de l’informatique et de l’innovation . Si, aujourd’hui, l’informatique est utilisé par tous, c’est
grâce à Microsoft .
Microsoft répond très bien au besoin notamment avec : le format WMA DRM, MSN Messenger, Vista, l’EDI Microsoft Visual Studio .NET …
Maintenant, cette approche propriétaire n’a pas que des avantages :
– un coût d’achat et de licences élevé
– La sécurité et la réactivité fâce aux trous de sécurité y est généralement faible car la communauté de développeurs n’est pas aussi large et importante qu’avec les solutions open source . Le serveur HTTP libre Apache est reconnu bien plus sûr que son concurrent propriétaire Microsoft IIS (Internet Information Server) essentiellement car la communauté de développeurs Apache est bien plus étendue .
– L’autre inconvénient majeur est l’interopérabilité très insuffisante des logiciels propriétaires en général . Ils ne sont fait pour fonctionner qu’avec les produits software de la même marque car ils utilisent beaucoup plus faiblement les normes et standards pour privilégier des technologies et protocoles très personnels et secrets . Cette fermeture est utilisée par les majors de l’informatique pour privilégier leurs situations de monopôles sur le marché . Les exemples sont nombreux : l’éditeur de texte et le format Microsoft WORD, les protocoles utilisés par les serveurs de domaines : NT Server avec service pack 6a, 2000 Server, 2003 Server, le système d’exploitation Windows …
Les majors, après avoir imposés l’utilisation de leurs logiciels, profitent de cette situation pour maintenir leurs avantages . Ainsi, Microsoft cherche à imposer auprès du public ses produits et en particulier auprès des jeunes :
– par l’intermédiaire de l’éducation en proposant ses logiciels à l’éducation nationale (qui a refusée !)
– en ciblant les jeunes avec le logiciel MSN Messenger (=Windows Live Messenger) et l’obligation d’utiliser son passport .NET (fâce à la Liberty Alliance)
– en imposant des logiciels comme Windows Media Player par défaut avec son OS Windows
– en répondant aux besoins de l’industrie du disque avec le format WMA DRM (Digital Right Management)
Cette attitude de monopôle empêche la concurrence d’émerger et cet abus de position dominante a valu à Microsoft de nombreuses amendes et procès .

Produits Open Source et Linux :
sono
Les produits Open Source obéissent à une autre logique . Ils sont associés à des licences (GNU, GPL …) qui permettent à chacun d’accéder aux sources, de faire évoluer le code et le logiciel . L’approche est plus collaborative et la communauté de développeurs est généralement élevée (surtout pour les produits phares) . Linux ou Apache en sont les parfait exemples . De ce fait, la réactivité en matière de sécurité est plus élevée . L’évolutivité du logiciel l’est aussi et les algorithmes sont généralement plus optimisés, en tout cas, pour les produits les plus connus . Par exemple, il est reconnu que le système de gestion de la mémoire de Linux avec son arborescence de noeuds d’informations (inodes) a été à sa sortie bien plus performant en complexité en temps que la gestion de mémoire de Microsoft avec sa FAT32 (File Allocation Table) . De la même manière, Linux a été le premier système d’exploitation véritablement multi-utilisateurs (permettant des utilisateurs locaux et distants simultanément) et véritablement multi-tâches préemptif . Il a été le premier à accorder des priorités aux processus et à donner la possibilité à l’ordonnanceur d’interrompre une tâche en cours pour une autre plus prioritaire . A cette époque, Microsoft avait encore un système archaïque et potentiellement bloquant . Bien sûr, depuis, Microsoft a été amené à copier Linux !
On peut aussi rappeler que les logiciels Open Source sont plus respectueux des normes en vigueur .
Enfin, les logiciels Open Source comme Linux participent à réduire les inégalités entre très grandes entreprises TGE et TPE/PME . De plus, ils réduisent la fracture Nord/Sud puisqu’ils sont très utilisés dans les pays pauvres .
L’Open Source a amené à l’informatique une saine émulation profitable pour tous et une saine concurrence .
En particulier, il séduira particulièrement ceux qui sont sensibles au travail collaboratif et à l’envie de partager la connaissance ou encore à ceux qui ne sont pas prêt à payer trop chers leurs logiciels .
Les vrais points faibles de l’Open Source sont :
– délicat d’utilisation pour les novices et pas assez de GUI (interfaces graphiques)
moins intuitifs
formats souvent moins utilisés (Word est bien plus usité que Open Office)

En guise de mot de conclusion, l’entreprise doit se poser la question de savoir qui privilégier : Linux (européen) ou Microsoft (américain)
Aujourd’hui, Linux et notamment la Red Hat avec son système de support technique est une vraie alternative pour l’entreprise .
Dans le monde des serveurs, Linux a pris une part non négligeable et il est souvent utilisé en version embedded (embarquée) dans de nombreux produits du marché (mini serveur NAS, portables, lecteur MP3, PDA …) en raison de la baisse de coût qu’il induit .
Même si il coûte moins chère à l’achat (pas de licences),
Linux implique cependant aussi des coûts cachés comme le coût de formation du personnel peu habitués à ce type de produits .
L’intuitivité des produits propriétaires comme Microsoft 2000 ou XP Pro fait alors faire gagner de la rapidité de production .
En fonction des situation, l’une ou l’autre des solutions s’impose donc . Il faut l’évaluer au cas par cas .
A noter que si on choisit les solutions open Source, il faut toujours miser sur des logiciels Open Source connus avec une communauté de développeurs importante de façon à assurer une durée de vie élevée à son choix .

Mozilla Firefox, extensions et outils d’administration associés

Le navigateur Mozilla Firefox est actuellement le meilleur navigateur/butineur disponible .
Il offre un haut niveau de sécurité et permet de visualiser la quasi- intégralité des pages du web suivant l’apparence de leurs concepteurs .
Il est donc l’outil par excellence pour développer et tester ses pages Web .
Son moteur de rendu respecte les standards et recommandations du W3C .
En natif, il propose un outil d’aperçu du code source avec coloration syntaxique, un outil de détection d’informations de pages web et un inspecteur DOM (Document Object Model avec récapitulatif des liens, des images, des formulaires, des scripts et de l’architecture de la page) et un outil de débogage Javascript .

En plus de ces fonctionnalités, il est possible de lui adjoindre des extensions pour en ajouter .
En particulier, j’utilise des extensions d’administration et de développement comme :
Nandu, éditeur HTML WYSIWIG pour les développeurs Web
Launchy pour ouvrir une page web dans plusieurs navigateurs : utile pour le développement d’applications Web
MeasureIt pour mesurer la taille d’une image : utile pour les WebDesigners
ColorZilla pour retrouver les codes de couleurs HTML utilisé sur les sites web : utile pour les développeurs
LiveHTTPHeader pour connaître en temps réel, les requêtes HTTP entrantes et sortantes échangées
sono
Mozilla Calendar et calendriers au format iCal pour partager son calendrier, fixer des rendez vous et des alarmes ou définir des mémos
SpyServer pour connaître le type de serveur HTTP utilisé sur les sites que je consulte
sono
showIP pour connaître les adresses IP se cachant derrière les noms DNS des sites consultés et lancer des requêtes comme ping ou whois pour par exemple connaître le pays ou le site est hébergé .
FireFTP, un client FTP comme CuteFTP
sono
BandwidthTester pour connaître la bande passante réelle dont on dispose en upload et download
DownloadThemAll, un gestionnaire de téléchargement
Dr.WEB, un anti-virus en ligne qui permet de tester si un fichier est infecté en ligne avant de le télécharger : utile pour les administrateurs systèmes et réseaux

Firefox dispose aussi d’extensions ludiques comme :
sono
Footie Fox v 1.0.6 pour avoir les résultats des matchs de foot de la coupe du monde ou des championnats mondiaux en direct
sono
ForecastFox v 0.9.0.2 pour avoir la météo (température, vent, conditions) jusqu’à 8 jours dans différents emplacements partout dans le monde (y compris en France) (mon experience me laisse penser que les prévisions à 2/3 jours sont fiables)
FoxPose pour visualiser dans un nouveau onglet le contenu de tous nos onglets ouverts

Pour télécharger toutes ces extensions, aller sur https://addons.mozilla.org/

Stéganographie et Cryptographie

Depuis très longtemps, les hommes cherchent à échanger des messages secretement .
Ils ont donc mis en oeuvre 2 approches :
Soit la sécurité repose sur le fait que le message est chiffré et devient incompréhensible, il nécessite alors un algorithme pour être déchiffré, c’est le principe du chiffrement; soit la sécurité repose sur le fait que le message ne sera pas détecté car caché, c’est la stéganographie :
L’art est de cacher un message au sein d’un autre de caractère anodin, de sorte que l’existence même du secret soit dissimulé .

Stéganographie :
Un exemple de stéganographie peut être tiré de l’histoire grecque :
Hérodote, un historien grec vivant au quatrième siècle avant Jésus Christ, relate l’utilisation d’un des plus étranges moyens de communication que l’on connaisse . Un certain Histiée se trouvant à la cours de Perse et voulant prendre contact avec son gendre (le tyran Aristagoras de Milet) choisit un serviteur dévoué, lui rasa la tête, y tatoua le message et attendit la repousse des cheveux . Histiée l’envoya alors à Aristagoras avec instruction de lui raser le crane . L’ayant fait, celui ci put lire le message .
De nos jours, les messages, transformés en longues suites de bits , sont camouflés parmi les bits d’un autre fichier, image, son , vidéo … La méthode la plus utilisée consiste à camoufler le message dans des images . Une image informatique est définie par la suite des niveaux de couleur de chaque pixel de l’image décrit de gauche à droite et de haut en bas généralement sur une échelle de 0 à 255 (un niveau par pixel pour une image en niveau de gris ou 3 niveaux pour les 3 couleurs RGB pour les images couleurs) .
La stéganographie consiste alors à modifier lègérement le codage des niveaux de couleur de chaque pixel pour camoufler chaque bit du message .
Chaque bit du message est dans le dernier bit significatif de chaque point d’une image .
Par comparaison avec l’image initiale, on retrouve le message et visuellement cela ne se voit pas et on ne sait pas qu’un message est camouflé dans l’image . Cette technique a été utilisée par la cellule terroriste Al Kaida pour s’échanger des messages à travers des mails anodins avec photos jointes . Le réseau d’écoute Echelon de l’Alliance UKUSA (United Kingdom USA) ne les a pas détécté !
Voici un exemple avec deux images qui semblent identiques mais celle de droite cache une message .
sonosono
Et voici un lien ou télécharger un freeware CRYPTIMA permettant la stégano .

Chiffrement :
En matière de chiffrement, on a vu là aussi de nombreuses techniques se développer . Les allemands pendant la seconde guerre mondiale ont développé la machine Enigma . De la même manière, la NSA a développé dans les années 70, l’algorithme de chiffrement à clé secrète DES (Data Encryption Standard) . La clé de 64 bits sert ici à chiffrer et déchiffrer le message . L’algorithme (basé sur des tables de substitution avec 16 rondes) étant connu de tous, la sécurité est uniquement dans la clé . La sécurité du DES résiste actuellement à toutes les attaques effectuées avec des moyens financiers et temporels normaux (moins de 10 millions de dollars et moins d’un mois) . De plus, cet algorithme est relativement facile à réaliser matériellement et certaines puces chiffrent jusqu’à 1 Go de données par seconde ce qui est énorme .
On trouve aussi la valise diplomatique qui est sans doute le meilleur chiffrement qui soit puisqu’il est absolument indéchiffrable sans connaître et intercepter la valise diplomatique proprement dite . Il est utilisé par le téléphone rouge et repose sur le principe suivant :
La clé unique est une clé privée générée aléatoirement, utilisée une seule fois puis jetée . Elle est aussi longue que le message lui même . Cette clé est échangée par l’intermédiaire d’une valise diplomatique qui fait office de canal sécurisé . Le chiffrement se fait par la méthode du One Time Pad (OTP) ou masque jetable :
– Nous avons un message de n octets.
– Pour le chiffrer, on crée une suite de n octets aléatoires, la clée privée ou masque .
– On applique ce masque octet par octet au message par une opération logique XOR par exemple .
Sans connaître le masque, le message peut être décrypter en n’importe quoi, c’est pour cela que l’algorithme ne peut pas être cassé .
Bien sûr, il existe d’autres algorithmes comme Vigénére, 3-DES, RSA … ou encore PGP .
PGP (Pretty Good Privacy) est très utilisé de nos jours et c’est un algorithme à clé publique et clé privé .
C’est celui que j’utilise personnellement pour chiffrer et déchiffrer mes messages électroniques .
Ma clé publique est présente en bas de page sur la page d’accueil de mon site web à : http://curriculumvitaeandsciences.kwaoo.me/
Vous pouvez l’utiliser pour m’écrire et elle est visible de tous . Vous chiffrez avec PGP et ma clé publique et je suis le seul à pouvoir déchiffrer avec ma clé privé correspondant à la clé publique . Cette clé privé est présente sur mon ordinateur (le trousseau public/privé en fait) et est protégée par mot de passe, ce qui ajoute un niveau de sécurité .
De la même façon que PGP permet de crypter les messages avec la clé publique et décrypter avec la clé privée, PGP permet aussi de gérer l’authentification . Cette authentification utilise un processus inverse au chiffrement :
J’envoie un message m’authentifiant via PGP et ma clé privée et, le destinataire peut vérifier avec ma clé publique que le message reçu vient bien de moi car généré avec ma clé privée !
Voici un lien vers l’application GNUPG permettant le chiffrement PGP et un autre lien vers l’extension Enigmail pour le client de messagerie Mozilla ThunderBird permettant de chiffrer les e-mails avec PGP .

_-_

FreeNet et réseaux P2P cryptés – problèmes déontologiques

sono
Freenet est un réseau informatique P2P tout comme Shareaza ou e-mule .
Comme tous les Peer to Peer, l’utilisateur paramètre la bande passante réseau attribuée et l’espace disque utilisable .
Freenet se distingue des autres car il permet d’assurer l’anonymat et un cryptage des communications . Il utilise une architecture à clés publiques / privée.
Il est décentralisé et bâti au dessus d’Internet . Il offre la plupart des services actuels d’Internet (email, téléchargement, sites web, etc.) .
Techniquement, les informations de Freenet sont stockées dans chacun des ordinateurs du réseau .
L’espace alloué par le nœud sert à stocker des fragments de données du réseau encryptées dans un cache local .
L’utilisateur ne connaît pas le contenu de ce cache et des données qu’il stocke puisque les données y sont cryptées .
Pour récupérer une information, identifiée par une clé unique, l’ordinateur client demande à d’autres ordinateurs du réseau la clé en question .
Ceux-ci peuvent la renvoyer ou, s’ils ne l’ont pas dans leur cache, peuvent la demander à leur tour à d’autres nœuds .
Un ordinateur qui demande ou envoie un contenu ne s’identifie pas, car il peut avoir initié l’envoi ou la demande d’envoi, ou l’avoir simplement relayée .
De plus, un ordinateur qui fait transiter une information peut en garder une copie dans son cache . Ainsi, les données les plus demandées sont présentes dans plus d’ordinateurs et sont plus faciles à obtenir : les données se déplacent dynamiquement sur le réseau en fonction de la demande . Les données jamais demandées sont peu à peu remplacées par d’autres et disparaissent du réseau après un délai indéterminé.
Il est également impossible de supprimer ou de censurer une information et la conception décentralisée du réseau interdit à quiconque de stopper son fonctionnement .
Ce réseau permet ainsi d’assurer la liberté d’expression notamment à travers de sites webs par exemple dans les pays victimes de dictatures ou il est délicat d’exprimer des idées différentes de celle du régime en place .
Ce réseau présente aussi des défauts : Il permet de la même façon de diffuser des données illégales ou douteuses : terrorisme, pédophilie …

Fils RSS, architecture XML/XSL, WebServices, Wiki et partage des données

Le monde du Web connaît une transformation dans la façon de partager les données .
Jusque là, le langage du Web était le langage HTML ou DHTML (Dynamic HyperText Markup Language) . Ce langage définit le contenant et le contenu, les données
et leur mise en forme, simultanément .
sono
L’apparition du langage XML/XSL a modifié la façon de concevoir des pages et est très utile dans un certain nombre de cas précis .
Le langage XML est un langage de définition de données . Il est utilisé pour enregistrer les données et les structurer suivant une norme d’enregristrement spécifique à balises . Ces balises permettent par xemple de catégoriser les données . Un fichier XML peut être vu comme une base de données . Les applications sont de plus en plus nombreuses à enregistrer leurs paramètres dans des fichiers de stockage au format balisé XML .
Le langage XSL permet de parser un fichier XML pour extraire les données recherchées et les mettre en forme.
Les données sont donc gérées par XML et la mise en forme par XSL .
Cela permet de définir un fichier XML partagé sur le web . A partir de cette unique fichier, différents sites peuvent utiliser des fichiers XSL différents pour exploiter cette information XML partagée et mettre en forme les données diffféremment, et ainsi créer autant de pages web différentes . Il est alors inutile de réécrire les données à de multiples reprises .
Dans la même logique de partage des données, les WebServices permettent d’interroger à distance la même base de données par exemple, et de partager l’information sur différents sites . Les WebServices étant très faciles à développer, il est simple de les ajouter à ses sites .
sono
Une autre démarche de partage a été mise en oeuvre à travers les fils (ou flux) RSS (Really Simple Syndication). Le contenu d’un site ou d’un blog peut être syndiqué . Chaque utilisateur peut alors récupérer chez lui le contenu à a chacune de ses mises à jour sans avoir à accéder directement au site .
De la même façon, un autre site peut décider de publier le contenu d’un site syndiqué et afficher le dernier article publié .
L’article apparaît alors dans divers sites automatiquement et est partagé . Le fil RSS est défini par un fichier XML contenant le titre de l’information, un résumé et un lien vers l’article en ligne .
De la même façon qu’on peut partager ses articles avec d’autres,
le
site del.ico.us propose de développer ses propres bookmarks (ou
signets) et de les partager avec d’autres internautes . Chacun fait
alors évoluer cette bibliothèque commune de bookmarks et ajoute ses nouvelles découvertes qu’il propose ainsi aux autres de découvrir .
Pour finir, le concept Wiki correspond lui aussi
en entreprise à une approche de gestion et de partage de la connaissance (Knowledge Mangement) . Il s’agit d’un site interne à l’enterprise, présent sur l’intranet, dans lequel chacun des collaborateurs peut ajouter ses propres connaissances en les classifiant . Au bout d’un certain temps, chacun fait part aux autres de ses savoirs et savoirs faire par cet intermédiaire et, l’entreprise constitue ainsi une mine d’informations mise à disposition des autres et très utile . Chacun peut apporter sa pierre à l’édifice et contribue à son évolution .

Radios, podcasts et livres audios sur Internet

L’internet, grâce à l’augmentation des débits sur la boucle locale BL (les derniers kilomètres jusqu’à l’abonné) et l’ADSL du RTC, fournit aujourd’hui de nouveaux services audios (podcast, radios, blogs audios) ou vidéos (streaming vidéos, VoD Vidéo On Demand, Télé sur Internet) .
Ainsi, par exemple, la plupart des radios FM disposent aujourd’hui de leur équivalent numériques sur Internet .
Ces radios internet présentent l’avantage de ne pas avoir de publicités pour l’instant et d’enchainer ainsi les titres sans interruption .
Le logiciel Radio Fr Solo fournit l’accès à toutes les radios françaises les plus connues comme Radio Scoop, BFM, Nostalgie ou France Info … C’est le meilleur logiciel radio français que je connaisse et il permet l’enregistrement du flux .
sono
Les podcasts correspondent à une technologie permettant d’écouter de l’audio en direct ou en différé .
Ainsi, les radios Internet dont on vient de parler, sont des podcasts à part entière en direct .
Ces podcasts sont souvent décrit par l’intermédiaire de fichiers .pls contenant le lien vers le serveur de podcast .
Par exemple, le logiciel Radio Fr Solo référence une bibliothèque de fichiers .pls pour toutes les radios qu’il gère .
Voici un exemple de contenu d’un fichier .pls :

NumberOfEntries=1
File1=http://stream2.frequencecaribou.com:8182/
Comme on peut le voir, le protocole utilisé ici est HTTP .
Ces WebRadios peuvent être écoutées avec un logiciel radio spécialisé ou un lecteur compatible pls comme Winamp ou iTunes .
Cette technologie de podcast permet à tout un chacun de réaliser sa propre radio personnelle avec seulement un ordinateur équipé d’un microphone et un logiciel spécialisé permettant d’enregistrer le son à un débit relativement faible afin de le diffuser par podcast
sur Internet .
Des hommes politiques utilisent le podcasting pour diffuser des extraits audios de leurs discours sur leur blog .
Ces podcasts peuvent être écoutés en direct comme en différé et récupérés bien après leur enregistrement .
Le logiciel iTunes d’Apple permet l’abonnemment gratuit ou payant à un très grand nombre de podcasts sur des sujets très variés (anglais, politique, emssion radio, télé, humour …) . Après l’abonnement, iTunes permet de consulter les extraits audios déjà publiés pour ne récupérer que ceux voulus et les écouter quand on le souhaite .
Par exemple, les différentes émission radio « les grosses têtes » peuvent être téléchargées par Internet et sur son stick MP3 ou iPod afin de les écouter plus tard comme le lendemain dans le métro . Dans le même registre, iTunes propose aussi de s’abonner à des podcasts d’apprentissage de l’anglais ou de préparation au TOEFL .
On peut ainsi télécharger une leçon audio pour l’écouter plus tard .
Pour finir, iTunes propose le téléchargement de livres audios au format AAC ou MP3 comme « Harry Potter and the the Goblet of Fire » pour les bilingues ou des livres audios en français pour les aveugles .

Formats audio informatiques

sonosono

Dans le monde de la musique et de l’informatique, il existe de nombreux formats audios :
wav, midi, wma, wma drm, mp3, mp3 pro, ogg vorbis, aac
Pour réaliser de tels fichiers, on procéde comme pour les données et on compresse afin de minimiser l’espace occupé sur le disque et accélerer les échanges par le réseau .
On réalise une compression
du fichier musical comme on le fait pour les données via .zip ou .rar et winzip ou winrar .
Cette compression initiale se fait en organisant différemment l’information en tirant parti de la nature des données : c’est le principe de base de la compression .
A partir de là,
il faut distinguer les fichiers qui compressent la musique d’origine sans aucune perte (lossless) et ceux qui compressent en supprimant certaines fréquences inaudibles, donc en dégradant l’original .
Dans ce deuxième cas, en plus de la compression d’origine, on supprime les informations inutiles car inaudibles pour une oreille normale . C’est le cas des formats aac, mp3, mp3 pro, wma, wma drm, ra et ogg vorbis …
Afin d’augmenter la qualité de nos fichiers musicaux, on peux choisir un taux d’encodage plus élevé (192 Kbps au lieu de 128 kbps pour du mp3 par exemple) .
Toujours pour minimiser la taille occupée par ces fichiers audio informatiques, on a vu apparaître les principes d’encodage CBR (Constant Bit Rate) et VBR (Variable Bit Rate) .
En CBR, chaque seconde est encodé avec le même taux (ex : 192 kbps) .
En VBR, ce taux varie légéremment autour d’un taux nominal de référence en fonction de la complexité du son rencontré . Par exemple, une seconde de silence sera encodée à un taux plus faible que le reste . Il en résultera souvent un fichier ayant une taille moins importante qu’en CBR .

Dans cette jungle des formats, tous n’ont pas les mêmes caractéristiques .
sono
– Le MP3 est un des tout premiers formats et il est très répandu notamment sur les matériels du marché (baladeurs, chaine hifi, auto-radio, cd …) . Il est donc polyvalent et d’une très bonne qualité et peut être lu par la plupart des logiciels du marché . De plus, son encodeur est open source et gratuit . C’est celui qu’il faut utiliser par défaut .
Certains le critiquent car ils ne le trouvent pas excellent : en réalité, il est rarement en cause et c’est plutôt le taux d’encodage utilisé ou la qualité du lecteur MP3 qui est en jeu . Par exemple, le lecteur windows média player de Microsoft lit très mal les MP3, ce qu’on comprend quant on prend en compte la guerre commerciale que Microsoft livre avec son format WMA qu’il cherche à imposer contre le MP3 . Il faut alors mieux choisir le lecteur Winamp de NullSoft pour les MP3.
Le son est enregistré sur 2 canaux (stéréo) . La qualité Cd s’obtient en 192 à 320 Kbps/s .
sono
– Le WMA est le format de Microsoft . Il est également de bonne qualité et sur 2 canaux . La taille des fichiers est à peu près égale à celle des MP3 à qualité égale . Il est essentiellement lu et oblige l’utilisation du lecteur Microsoft Windows Media Player (comme à l’habitude de la stratégie propriétaire de Microsoft) .
Il existe une déclinaison appelée WMA DRM (Windows Medi Audio Digital Right Management) qui inclue un système de protection et de licence du fichier afin de contrôler le périmètre d’utilisation du fichier : nombre de gravures autorisées, d’enregistrements sur clés …
Ce dernier système de protection explique l’utilisation du WMA par les plateformes de vente de musique en ligne comme fnacmusic.com ou VirginMegaStore .
sono
– Il existe le format Ogg Vorbis qui est d’excellente qualité et qui propose l’enregistrement non pas sur 2 canaux (stéréo) mais sur 255 canaux (pour les salles de concert du futur ?) . Il est open source, peut être modifié par tout un chacun et à 128 Kbps, on atteint le niveau de qualité d’un CD audio . Très bon . De nombreux lecteurs sont compatibles avec Ogg comme Sonique ou
Winamp .
sono
– On trouve également le format MP3 PRO qui propose un système DRM et sur 2 canaux (stéréo) .
WMA n’est donc pas le seul à décliner un système de protection . Ce MP3 PRO offre un meilleur rapport taille / qualité que le MP3 standard mais son encodeur n’est pas gratuit et il est peu utilisé pour l’instant . Pour 96 Kbps, on obtient une qualité CD 🙂
Excellent !
sono
– Pour finir, le format AAC a été développé par Sony et Dolby et est utilisé commercialement actuellement par Apple via iTunes / iPod sono et son magasin en ligne . C’est peut être techniquement le meilleur format même si il est bien moins utilisé que le MP3 standard . Contrairement au MP3 ou WMA, la compression s’appuie non pas sur le MPEG-1 mais sur le MPEG-4 (du DivX ) . La qualité CD s’obtient avec un débit de 96 Kbps, il existe un système de DRM et il gère le son sur 48 canaux (donc compatible avec le Dolby Digital 5.1 des DVDs). L’excellence !


Informations géographiques sur Internet

Actuellement, les informations géographiques connaissent une véritable révolution sur Internet .
Ainsi, on a vu apparaître des services permettant d’accéder à des vues satellitaires ou aériennes du territoire français mais aussi mondial .
Par exemple, le logiciel Google Earth permet de survoler notre planète vue du ciel avec une très bonne résolution notamment sur les zones les plus connues . On peut y voir : New York, l’Empire States Building, Central Park ou encore le chantier du WTC .
On peut aussi voir : Paris, Londres, la muraille de Chine ou encore North Falk, les ports et aéroports militaires américain, le Taj Mahal, Rio de Janeiro, le Maracana, des volcans comme le Vésuve, l’Etna ou le Stromboli ….
Ce logiciel utilise une architecture logicielle « client-serveur » en accédant à un serveur central sur Internet via une liaison locale de bonne qualité (ADSL Min) .
Pas d’architecture monolithique ou peer-to-peer ici …
Dans le même temps, l’IGN (Institut Géographique National) vient de sortir une plateforme web proposant les mêmes services en mieux mais uniquement pour la France à travers son géoportail www.geoportail.fr .
La résolution y est de 50 cm sur tout le territoire français soit 2 fois mieux que Google Earth, et des vues 3D seront bientôt disponibles .
Ici, l’IGN ne propose pas un logiciel comme c’est le cas de Google Earth mais un site web classique .
Dans les deux cas, ces services géographiques proposent les bases de données (SGBD) d’informations diverses (bar, discothèques, restaurants …) utiles notamment à destination des entreprises . Pour les particuliers, Google Earth recense de nombreuses webcams à travers le monde …
Toujours pour le territoire français, il est également possible d’utiliser le site web des pages blanches (www.pagesjaunes.fr) pour localiser une adresse et visualiser des vues aériennes de bonne qualité .
Ces nouveaux services s’accompagnent du développement de sites de création d’itinéraires comme www.viamichelin.fr ou encore mappy.fr .
Il est d’ailleurs intéressant de signaler que ces services d’itinéraires se déclinent également sous forme de « Service web » (Java ou .NET) via les protocoles WSDL ou SOAP ce qui permet d’ajouter facilement ces services à son site, un peu comme les services web de météo .
Pour finir, cette révolution dans le traitement géographique, apparait également dans notre vie de tous les jours par la démocratisation du terminal GPS américain et très prochainement, le système de géolocalisation Galiléo Européen « encore meilleur » .
Il y aura alors, d’ici la sortie commerciale de Galiléo en 2008, pas moins de 60 satellites en orbite (30 pour le GPS et 30 pour Galiléo) . La triangularisation des signaux, pour en conclure notre position, en sera donc facilitée, même dans une ville, entouré de hauts immeubles .
Enfin, avec le réseau de téléphones mobiles (GSM, GPRS,UMTS 3G), nous allons voir apparaître de nouveaux terminaux avec Galiléo intégré permettant de localiser les appels .
Ainsi, en cas d’accident, les secours ou les pompiers (18) pourront facilement localiser le lieu de l’appel et venir en aide à la victime même si celle ci ne sait pas vraiment ou elle se trouve : par exemple, dans un fossé, dans les Cévennes, en pleine nuit … très utile …
Et, là, ce n’est plus un gadget …


Environnement technique utilisé pour la création de ce blog

Je vais commencer par vous présenter l’environnement technique, tant matériel que logiciel, que j’utilise pour réaliser ce blog .

Hardware :
Mon ordinateur personnel est un ordinateur portable Toshiba Satellite A60-117 équipé de 1,256 Go de Mémoire vive DDR-SDRAM (barrette SO-DIMM) avec un processeur Intel Pentium 2,8GHz et un disque dur de 40 Go (formaté NTFS et ext2, double boot Windows XP / Linux) ainsi qu’une carte graphique ATI avec 64 Mo de mémoire vidéo .
J’utilise un accès Internet ADSL RTC sur la boucle locale via un modem routeur ADSL Wifi Netgear et mon réseau local filaire (LAN) (avec un cablage : RJ45, CAT5, SFTP; Protocole : Fast Ethernet 100Mbit/s) et mon réseau sans fil (WLAN) (en Wifi 802.11G, 54Mbit/s,
sur le canal français 1-11 avec sécurisation par filtrage d’adresses MAC, cryptage WPA-PSK et firewall par port) .

Software :
J’utilise le système d’exploitation Microsoft XP avec un anti-virus (analyse boot + real time + mise à jour automatique) et un firewall par filtrage logiciel (autre que celui d’XP) ainsi que l’IDS GesWall (NIDS Snort à l’essai) .
Pour accéder à Internet, j’utilise le navigateur internet Mozilla Firefox v 1.5.0.1auquel j’ai adjoint de nombreuses extensions très utiles pour l’administration réseau et le quotidien .
En particulier, j’utilise l’extension Performancing v 1.2 afin de mettre à jour et publier facilement de nouveaux articles sur ce blog .
J’ai choisi d’utiliser le service de Blog spaces.msn.com de la firme de Redmond, Microsoft .
Comme à son habitude, Microsoft a misé sur la démocratisation de l’informatique en présentant une interface facile et intuitive .
Ce service de publication de blog est très pratique en particulier car il propose :
– un référencement efficace de chaque article (sur une page séparée) compte tenu du format « blog » du site web
– la possibilité d’ajouter des photographies et vidéos dans chaque article mais aussi sous forme d’album
– la possibilité d’ajouter des commentaires aux articles et photographies
– la possiblité de syndiquer le contenu par flux RSS et rétroliens
– la possibilité d’ajouter des musiques de fond
– la possibilité de retoucher la mise en page globale