L’informatique au Japon

Pour comprendre l’histoire de l’informatique au Japon, il faut tout d’abord savoir que la japonisation des environnements informatiques a posé des problèmes pendant longtemps, et que ceux-ci n’ont été résolus qu’assez récemment. En effet, si les langues occidentales, qui s’écrivent à l’aide d’un système d’écriture phonétique très simple, ont pu être utilisées par les ordinateurs dès le début ( Encore qu’il ait fallu attendre la première moitié des années 80 pour disposer en Europe de logiciels localisés, permettant l’usage des signes accentués.), cela n’a pas été du tout le cas pour le japonais, à l’instar d’ailleurs des autres langues d’Extrême-Orient comme le chinois ou le coréen. Ceci est dû au fait que ces langues utilisent un système d’écriture très compliqué basé sur plusieurs milliers de caractères idéo-graphiques.

Dans un premier temps, ces pays ont essayé de copier le système occidental, à savoir «une touche égale un signe», mais cette stratégie s’est rapidement montrée inadaptée : l’utilisateur devait manipuler un clavier comportant plusieurs milliers de touches!

Avec l’apparition de micro-ordinateurs, l’informatique sortît des laboratoires et des grandes entreprises pour être utilisée par le grand public. Afin de transformer ces machines en produit de grande consommation, il devînt donc impératif de changer de méthode pour entrer les caractères. A l’origine, les micro-ordinateurs ne possédaient pas suffisamment de RAM et des micro-processeurs suffisamment rapides pour espérer gérer des polices de caractères de plusieurs milliers de signes. On obligea donc les utilisateurs à taper leur texte uniquement en signes phonétiques, en katakana dans le cas du japonais, en hang’ul dans le cas du coréen. Cette méthode n’eût pas beaucoup de succès, de par la difficulté de lire ces langues sans aucuns caractères chinois.

La puissance des micro-ordinateurs augmentant rapidement, les Front-End Processors fîrent leur apparition afin de gérer les input-output dans ces langues. Le principe est simple: on tape les mots en alphabet latin, sur un clavier de type occidental (avec quelques touches supplémentaires: le clavier japonais comporte typiquement 106 touches, contre 101 aux Etats-Unis, et 102 en Europe), puis on laisse un programme couplé à un dictionnaire analyser le mot ou la phrase, et convertir en caractères chinois (kanji en japonais) les mots qui doivent l’être (En effet, le japonais et le coréen s’écrivent en mélangeant des caractères chinois et des caractères phonétiques, kana en japonais, hang’ul en coréen. Le chinois ne s’écrit qu’avec des kanji. A cela, on doit naturellement ajouter l’alphabet latin et les chiffres arabes.) Lorsque le programme rencontre un homophone, c.a.d. un mot possédant plusieurs équivalents phonétiques, le programme effectue une conversion en choisissant l’homophone sélectionné lors de la dernière utilisation. Si ce mot ne correspond toujours pas, la liste des homophones est affichée à l’écran.

Par exemple, si l’utilisateur tape dans un environnement japonais le mot kagaku, le programme trouvera dans son dictionnaire au moins deux homophones signifiant, l’un science, l’autre chimie . Comment choisir? Le programme sélectionnera donc d’abord le mot choisit par l’utilisateur la dernière fois que le problème s’est posé. Si cela ne correspond pas, les deux mots seront affichés dans une fenêtre, à charge à l’utilisateur de sélectionner le mot correcte.

Si cette méthode rend indubitablement plus difficile la frappe de documents que lorsque l’on utilise un environnement occidental, les FEP récents permettent d’augmenter le taux de conversion correcte en utilisant, d’une part des dictionnaires beaucoup plus riches, d’autre part des algorithmes basés sur l’intelligence artificielle, à savoir l’utilisation de mots clés. Dans l’exemple ci-dessus, ce type de programme se basera sur la présence dans la portion de texte précédante de mots tels que molécules ou éléments pour choisir le mot chimie, ou, au contraire, des mots mathématiques, physique pour sélectionner le mot science.

Par ailleurs, les tables de kanji prennent beaucoup de place en mémoire, ce qui a obligé les fabricants asiatiques à les inclure à l’origine dans des cartes ROM. Si cette méthode a l’avantage d’économiser de la RAM, elle a l’inconvénient de coûter plus cher et d’interdire toute modification des polices.

C’est cela qui a décidé IBM à introduire en 1991 DOS/V, une version japonisée de PC-DOS 4.0 (Le V tient pour VGA. A l’époque seul IBM proposait ce type d’affichage ) et qui marque le début de la véritable pénétration des ordinateurs étrangers au Japon. En effet, les kanji sont désormais chargés en RAM, modifiables à volonté, ce qui n’oblige plus les constructeurs à personnaliser leurs machines pour le Japon.

La version 3.0 japonisée de Windows apparaît fin 1991. Même si le succès n’est pas à la hauteur des espoirs de Bill Gates, cet évènement est à marquer d’une pierre blanche. La sortie en 1993 de la version 3.1 est attendue. Celle-ci offre un confort d’utilisation supérieur et, comme dans sa version occidentale, des polices True Type, ce qui est un élément important car l’aspect esthétique des caractères chinois est primordial. Les polices True Type ont ouvert la voie à une production de polices japonaises aussi riches que pour l’alphabet latin. Le principal vendeur de fontes TT à l’heure actuelle est le fabricant d’imprimantes Ricoh; une fonte coûte environ \15,000, ceci étant dû aux efforts nécessaires pour coder une police de plus de 7,000 signes.

Le succès du Windows 3.1 japonais est tel que les constructeurs japonais décident, les uns après les autres, d’abandonner leur système propriétaire pour vendre également au Japon leurs compatibles IBM- PC. Seul NEC, et EPSON dans une moindre mesure (EPSON a décidé au début 1994 de continuer à vendre ses machines compatibles NEC en magasin, mais de vendre en directe des compatibles IBM.), s’entête à vendre ses machines série 98 à l’architecture incompatible, poussé en cela par une part de marché au Japon d’environ 50%. A noter cependant que Microsoft a accepté de recompiler Windows et ses applications pour cette série de machines. Ceci explique pourquoi on trouve au Japon deux versions des grands logiciels pour Windows: 1.44 M (IBM-PC) et 1.25 M (NEC/EPSON). Seul l’avenir dira pendant combien de temps NEC pourra résister à la tentation d’abandonner cette architecture uniquement utilisée au Japon.

Reste des problèmes non encore résolus: le DOS/Windows japonais ne reconnaît que les claviers japonais 106 touches et US 101 touches; par ailleurs, l’alphabet latin est limité aux 26 lettres de l’alphabet: il est donc encore impossible d’obtenir ne serait-ce que les signes accentués utilisés dans les langues européennes (A noter la sortie en septembre 1994 de la version 6 de Word qui permet de les obtenir, mais uniquement à l’aide de combinaisons de touches.), sans même parler d’autres alphabets comme l’arabe ou l’hébreu ( Pour une raison inconnue, le Japan Industrial Standard, l’équivalent nippon de l’AFNOR en France, a pourtant inclu dans la liste des signes utilisés en japonais les alphabets grecs et cyrilliques. Cette absence des signes accentués ne s’explique pas par manque de place, puisque cette liste contient de nombreux espaces vides. Langue étrangère égale anglais, comme disent les Nippons.).

Enfin, Microsoft réussira peut-être à imposer l’adoption de la liste Unicode, pour remplacer ces différentes tables de signes, Ascii en Occident, JIS au Japon (JIS est donc le nom officiel de l’équivalent japonais des Ascii. Cette liste contient environ 7,000 signes, et est séparée en deux tables. La première contient les alphabets latin, cyrillique et grec, les chiffres arabes, des symboles, les deux ensembles de signes phonétiques japonais hiragana et katakana, puis environ 3,000 kanji. La deuxième table contient environ 3,000 kanji supplémentaires, inutilisés aujourd’hui mais nécessaire pour taper des documents en japonais classique), d’autres encore en Corée, en Chine Populaire, à Taiwan, toutes différentes, ce qui ne facilite pas les choses. Ceci permettra de mettre un terme au bricolage actuel des environnements informatiques japonais, obligés de jongler avec deux tables de signes, les Ascii et les JIS (voir annexe).

Et Apple? Pour ce qui concerne Apple, les problèmes ont été moins nombreux puisque l’architecture du Macintosh est plus récente et que cet environnement est basé depuis l’origine sur un affichage en mode graphique, qui se prête donc facilement à une «localisation», c.a.d. une version en langue étrangère. Par ailleurs, Apple a étudié plus tôt que Microsoft le problème de l’internationalisation des logiciels, et notamment les difficultés que représentent le portage d’un environnement basé à l’origine sur l’alphabet latin à un environnement basé sur les kanji.

La première version japonisée du Système, appelée Kanji Talk, date de 1987, et a été bienreçu par les Japonais, notamment parce que seul Apple offrait à l’époque un GUI adapté au japonais. Jusqu’à la version 7, le développement du Système était organisé en partant du principe que les versions étrangères seraient directement basées sur la version US. Cependant, Apple s’étant rendu compte des problèmes posés par cette façon de faire, les versions 7 et 7.5 ont été au contraire développées selon le principe du concurrent engineering, c.a.d. que toutes les filiales participent simultanément au développement d’une nouvelle version, ce qui contribue à réduire au maximum les problèmes liés à la localisation de son environnement, en évitant la réécriture de code après coup.

La hausse du Yen, et la nette victoire des GUI sur l’informatique plus traditionnelle, ont permis depuis environ trois ans à Apple d’augmenter nettement sa part de marché au Japon jusqu’à tenir aujourd’hui 18% du marché. Cependant, la compétitition des compatibles PC est de plus en plus rude, et les choses pourraient changer de manière importante dans les deux ans qui suivent avec la version japonaise de Windows95, prévue pour... le début 1996.

Annexe Pour information, le principe des séquences escape <Ascii 27 + caractères de contrôles> a été abandonné au début des années 80 afin d’éviter des erreurs de transmission entre les ordinateurs et certains périphériques comme les imprimantes ou les modems.

A la place, on considère qu’un Ascii de base, c.a.d. un octet dont le bit de poids fort est à 0 est un véritable Ascii à chercher dans cette table, alors qu’un octet avec un bit de poids fort mis à 1 est un signe japonais : dans ce cas, on prend le deuxième octet, on ajoute ces deux chiffres de 7 bits en laissant de côté les deux bits de poids fort qui n’ont plus d’utilité, puis on cherche dans la table JIS le caractère auquel correspond ce chiffre codé sur 14 bits. C’est précisément ceci qui explique pourquoi on ne peut, sur la plupart des ordinateurs japonais, pas obtenir les signes accentués des langues européennes, puisque les Ascii étendus où résident ces signes ne sont plus disponibles.

Ce système posant de gros problèmes pour échanger des informations en japonais par l’intermédiaire de réseaux informatiques internationaux comme Internet ou Compuserve, on peut penser que la soi-disante internationalisation () du Japon conduira ce pays à remettre en cause prochainement ce système et adopter une alternative intéressante comme la liste Unicode (Pour en savoir plus, lire Understanding Japanese Information Processing/ par Ken Lunden, éditions O’Reilly & Associates Inc., Sebastopol (California), 1993, ISBN 1-56592-043-0).