Les chantiers de la découverte

L'ordinateur pour tous

Avec un prix plancher stabilisé autour de 10 000 F, les micro-ordinateurs restent trop coûteux pour constituer des produits réellement grand public. Aux États-Unis, pourtant champions en matière d'équipement informatique, on ne compte encore que 28 % de foyers disposant d'un ordinateur, alors que le taux d'équipement en téléviseurs et en téléphones approche de 100 %. Pour étendre l'usage de l'ordinateur aussi bien dans les familles que dans les écoles et les entreprises, l'Américain Larry Ellison, P-DG d'Oracle, entreprise spécialisée dans les logiciels de gestion de bases de données, a lancé l'idée d'un appareil simplifié, le Network Computer (NC, ordinateur de réseau), ne comportant pas de disque dur ni de lecteur de CD-ROM et tirant toutes ses capacités du réseau télématique auquel il serait connecté. Avec une configuration de base comprenant un clavier et un écran de télévision ordinaire, un modem de 8 millions d'octets de mémoire vive, un microprocesseur adapté au traitement multimédia et un lecteur de mémoire flash d'une capacité de 500 000 à 1 million d'octets, le NC devrait être vendu autour de 2 500 F, soit quatre fois moins cher qu'un ordinateur personnel. Son deuxième atout sera d'être très facile à utiliser, même par ceux qui ne possèdent pas de connaissances en informatique. Plus de 30 grandes entreprises d'informatique, dont IBM et Apple, se sont ralliées à cette idée. IBM a annoncé la commercialisation prochaine de terminaux Internet, et, fin octobre, Sun a lancé un ordinateur de réseau destiné aux entreprises, la JavaStation, tandis que Microsoft et Intel ont annoncé conjointement le NetPC, intermédiaire entre le PC classique et le NC. En quelques mois, l'ordinateur de réseau est devenu l'enjeu d'une redoutable bataille économique entre les principaux acteurs de l'informatique mondiale. Ses promoteurs espèrent en vendre 100 millions d'ici à l'an 2000. Le succès fulgurant du réseau Internet justifie cet optimisme. Le véritable marché de masse du NC sera le grand public, mais les experts estiment qu'il effectuera aussi une percée significative dans les entreprises, où il pourrait représenter 15 à 20 % des achats d'ordinateurs dès l'an 2000, et 30 à 40 % à plus long terme.

La radio numérique

Avec le système de radiodiffusion numérique DAB (Digital Audio Broadcasting), le paysage radiophonique devrait connaître dans les prochaines années un bouleversement comparable à celui que le CD a provoqué dans le domaine de l'enregistrement. La radio numérique procurera à l'auditeur un meilleur confort d'écoute et il aura accès à toute une gamme de nouveaux services. Les récepteurs DAB disposeront d'un petit écran à cristaux liquides permettant d'afficher images, textes ou photos associés, de près ou de loin, au programme diffusé : par exemple, les références et la pochette d'un disque, le visage d'un animateur, le livret d'un opéra, etc. En voiture, les automobilistes pourront visualiser des informations routières, touristiques ou météorologiques concernant la région ou la ville qu'ils traversent. En France, la première démonstration grandeur nature de diffusion en DAB s'est déroulée le 2 octobre 1996, à Paris, à l'occasion du Mondial de l'automobile. L'expérimentation grand public est prévue pour 1997 (300 volontaires seront les heureux bénéficiaires du prêt d'un récepteur) ; elle est déjà amorcée en Grande-Bretagne, en Allemagne et en Suède, où les industriels ont pris plusieurs longueurs d'avance. La radio numérique a cependant l'inconvénient d'exiger des émetteurs et des récepteurs spécifiques. L'un des obstacles les plus sérieux à son développement est actuellement le coût très élevé des récepteurs, voisin de 20 000 F. Ce n'est que lorsque celui-ci aura très sensiblement baissé, vraisemblablement autour de 5 000 F, que le DAB pourra espérer supplanter la modulation de fréquence.

Le moteur à essence à injection directe

Tous les grands constructeurs automobiles étudient depuis une quarantaine d'années différents concepts de moteurs plus puissants (au kilo) et moins gourmands en carburant. En commercialisant, en 1996, la première voiture dotée d'un moteur à injection directe d'essence, le Japonais Mitsubishi a devancé tous ses concurrents. La différence essentielle entre un moteur à injection directe et un moteur à injection classique se situe dans le lieu d'injection du carburant. Alors que dans un moteur classique le mélange air-essence se fait en amont de la chambre de combustion, dans un moteur à injection directe il est, au contraire, produit à l'intérieur même de cette chambre. Pour optimiser son allumage et sa combustion, les motoristes japonais ont dû concevoir des pistons aux formes tourmentées qui concentrent le mélange au plus près de la bougie. Par ailleurs, le ratio du mélange air-essence atteint 40 voire 50 pour 1, contre 15 à 18 pour 1 dans le cas d'un moteur classique. Ce mélange dit « pauvre » autorise de substantielles économies de carburant. En définitive, le moteur à essence à injection directe permet des gains de 30 % en consommation et de 10 % en puissance : son avènement marque une révolution dans la motorisation des véhicules automobiles et va certainement bousculer le rapport actuel entre l'essence et le diesel.

Le stockage de l'information

Aujourd'hui, les disques durs magnétiques offrent un rapport prix-performances imbattable pour le stockage de grandes quantités d'information. Leur densité de stockage atteint couramment 1 gigabit par pouce carré, et elle progresse au rythme de 60 % par an. Il existe cependant une limite théorique à la densité d'information que l'on peut stocker sur un disque : celle-ci sera atteinte lorsque l'espace occupé par un bit dans le matériau magnétique sera si réduit que son énergie sera égale à celle du matériau non magnétisé ; dès lors, il ne sera plus possible d'obtenir un état magnétique stable pour enregistrer de l'information. Cette limite est de 70 gigabits par pouce carré. Elle ne devrait pas être atteinte avant 2005. La technologie actuelle utilise l'effet magnétorésistif. Les têtes de lecture comportent un film de ferronickel déposé en couches minces. Lorsqu'elles détectent sur le disque un bit d'information, celui-ci provoque une modification du champ magnétique et induit un changement de résistance du matériau, d'où résulte un signal électrique envoyé à l'ordinateur. Brevetée par IBM dès 1975, cette technologie permettra d'atteindre des densités de l'ordre de 5 gigabits par pouce carré. Pour aller au-delà et atteindre 10 gigabits par pouce carré, il faudra recourir à de nouveaux films de matériaux permettant de conserver au signal émis par la tête une amplitude suffisante, alors que la taille des bits inscrits sur le disque, et donc leur énergie, sera devenue très faible (à une densité de 10 gigabits par pouce carré, la longueur d'un bit sur le disque ne dépasse pas 5 cent-millièmes de millimètre !). La vitesse de rotation des disques (de l'ordre de 7 000 tours par minute aujourd'hui) devra aussi augmenter pour réduire le temps d'accès aux informations. À plus long terme, les circuits intégrés, les disques optiques (à lecture laser) et l'holographie pourraient constituer des alternatives au stockage magnétique.

Philippe de La Cotardière