Dans les premiers temps du cinématographe, l'invention valait plus pour sa nouveauté, subjuguant l'auditoire comme aucun jouet optique ne l'avait fait jusqu'alors ; à ce caractère attractif est intrinsèquement liée une ambiance de foire, et si les premières images en mouvement ont parcouru le monde entre deux saltimbanques perfectionnant leur numéro, on peut dire que ces bornes d'arcade de luxe, premiers essais pour exploiter commercialement et de façon ludique la technologie développée sous le nom de réalité virtuelle, en s'exhibant lors de nombreuses foires informatiques à travers le monde, en étaient à ce stade d'attraction qui peut souvent brouiller les pistes quant à savoir ce qu'il adviendra de la technologie. À la différence des autres dispositifs de représentation visuelle créés par l'homme, ce dispositif émergeant présente une caractéristique soi-disant révolutionnaire : à travers lui vous ne devez plus vous soumettre à la représentation du monde, mais c'est ce monde qui se plie à votre volonté. Bien sûr, j'exagère ici volontairement. Après tout, lors des premières représentations du cinématographe, un certain Gorki avait le même réflexe de se protéger devant l'illusion, lorsque le jet d'eau de L'arroseur arrosé s'approchait de lui, comme ces spectateurs qui vont à IMAX pour la première fois lèvent les bras pour saisir ou repousser un objet.

Une fois la surprise initiale amoindrie par la répétition de l'expérience, et comme on ne se contente plus d'être ébahi devant le dispositif, les metteurs en scène du cinématographe ont pu expérimenter avec cette nouvelle façon de représenter le monde de manière à raconter des histoires. Et par ailleurs, comme la bête lumineuse s'était déjà retranchée dans une salle à l'arrière, on a pu instaurer quelques années plus tard, lors de l'institutionnalisation du cinéma, des règles, des conventions narratives qui ont fait du spectacle initial un dispositif idéal pour raconter, dans une transparence qui s'est approfondie avec le cinéma sonore et parlant. Les exemples de jeux interactifs développés jusqu'à ce jour pourraient être appréciés selon les mêmes paradigmes : du shoot'em up au beat'em up qui, par les sensations fortes qu'ils proposent, possèdent ce côté plutôt attractif, jusqu'aux jeux d'aventures ou différents god games qui injectent plus de narrativité [1]. Si les jeux actuels nous racontent déjà des histoires, ils sont néanmoins autant d'incunabulas où s'expérimentent les mêmes techniques qu'emploieront les créateurs de demain.

À quel point ces nouveaux dispositifs offriront-ils des fictions moins linéaires ? À nouveau, un détour par l'histoire du cinéma approfondira ce propos en démontrant la non pertinence d'une vieille polémique, celle de l'activité du spectateur par rapport à deux conceptions du film, l'antinomie du montage roi versus la transparence et le non montage. L'approche sera ainsi relativisée dans un effort pour démontrer que si l'avènement d'un «âge d'or» de la fiction interactive est probable, il y aura toujours des créateurs d'avant-garde qui verront leurs idées récupérées au sein même de ces conventions à définir. Par extension, cette antinomie qui vient d'être évoquée servira de point d'ancrage à deux pôles fictifs et non exclusifs ici déployés afin d'entrevoir les différentes modalités de la fiction interactive. Bien évidemment, les nombreux essais tendront vers l'un ou l'autre de ces pôles, incorporant des aspects communs, et ils ne sont développés en somme que pour s'entendre sur les termes et structurer les différentes conditions pour une plus grande transparence. Le premier : le film navigable, c'est à dire une fiction multiforme où le navigateur n'est pas cloisonné dans une temporalité et un espace prédéterminés. L'ubiquité enfin acquise, en quelque sorte. Le second : le jeu immersif et narratif [2], dans lequel le participant voit l'histoire se développer à partir de ses actions, ses choix. Pour chacun des pôles il sera nécessaire de définir quelles conditions, en terme de représentation du monde visuel et sonore, d'interface au sein du logiciel aussi bien que d'interface matérielle pour accéder à ce monde virtuel, offriront le maximum de transparence. Ces aspects se verront enrichis à mesure que la technologie deviendra plus puissante et disponible aux communs des mortels, mais pour avoir une transparence d'interaction, il faudra mettre sur pied des algorithmes de programmation capables de gérer les éventuels rebondissements provoqués par un utilisateur sans que ce dernier ait l'impression de se heurter au quatrième mur de ce dispositif, mur qui reste encore à définir.

D'emblée, une précision : à l'étude de la transparence ici développée ne correspond pas une quelconque mise en garde eut égard à ce qu'il convient de nommer le syndrome de Don Quichote. Il est beaucoup trop tôt pour suggérer une décalcomanie entre le réel et le virtuel ; cette fameuse peur qu'on ne sache plus se situer par rapport au factice scande l'histoire des moyens de représentation et resurgit depuis quelques années [3]. La schizophrénie du virtuel qu'on voit se déployer dans plusieurs scénarios paranoïaques omet un aspect essentiel de tout dispositif fictionnel : on veut y croire, on s'abandonne volontiers, faisant abstention des insuffisances qui demeureront, pour un avenir aussi lointain que l'on puisse se permettre d'imaginer, insurmontables. Mais pour que cette peur s'amplifie de la sorte, il aura sans doute fallu que notre société grapho-centriste constate la progression rapide de l'imagerie informatique. Est-ce dire qu'il suffit de combler la vision, le premier des sens, afin de berner cette machine complexe qu'est l'être humain?

Les premiers jeux interactifs d'Infocom ne donnaient rien à voir ; la visualisation d'une scène s'effectuait, comme pour un roman, dans l'imagination de l'utilisateur [4]. Ce dernier commande par un appel diégétisé la description écrite appropriée et en somme, le logiciel se contente de la lui servir. Les langages de programmation accessibles à l'époque n'intégraient que difficilement le graphisme, et bien souvent chaque ligne et chaque couleur devait être définie selon des codes fastidieux à l'intérieur même du programme. Mais peu à peu des logiciels spécialisés viendront se jouxter, les algorithmes d'affichage permettant de récupérer un fichier graphique, lui-même plus facile à concevoir grâce à leurs outils mieux adaptés. S'engage alors une course vers l'iconicité parfaite, d'abord statique : la faible puissance de calcul de la gamme x86 ne parvient pas à faire se mouvoir toutes ces données de manière convaincante. Pour trouver un rendu plus saisissant d'un monde dynamique, en 1985, on doit quitter cet univers de compatibles PC colonisé par quelques trekkies et migrer vers le domaine ludique grand public.

Afin de libérer l'unité centrale d'une charge de calcul qu'elle ne peut supporter, les fabricants proposeront une architecture décentralisée, intégrant des coprocesseurs dédiés à la gestion spécifique d'éléments encombrants. Dès lors, l'animation des objets et du monde virtuel acquiert une certaine qualité. La troisième dimension n'est plus restituée sur un écran fixe avec les conventions de la perspective albertinienne, mais par certaines prouesses techniques. D'ailleurs nul besoin d'aller puiser des exemples hors de la micro-informatique personnelle ; les logiciels développés pour la gamme Amiga de Commodore, basée sur l'architecture qu'on vient d'expliquer sommairement, nous offrent dès 1986 ce qu'on pourrait nommer, rétrospectivement, une perspective en mouvement, un trompe-l'oeil animé. On référait à ce procédé en terme de scrolling parallaxe et différentiel : on fait se mouvoir le personnage à gauche ou à droite et c'est une multitude d'avants et d'arrières-plans qui simulent la profondeur de par leur déplacement relatif. L'effet obtenu rappelle un travelling cinématographique [5]. La transparence est ici facile à éprouver : d'aucune façon vous ne pouvez plonger dans cette profondeur. Et même lorsque ce sera possible quelques années plus tard, par le biais de trucages et non par une restitution vraiment tridimensionnelle [6], la transparence pèche aussitôt qu'on s'approche d'une texture, d'un objet à contourner ; non content d'être granuleux, il n'y a pas beaucoup d'efforts pour constater la bidimensionnalité de la chose.

On constate alors l'apparition de moteurs 3D performants. Aux réductions géométriques qu'ils nous avaient proposées dans les simulations de vols, les concepteurs de jeux ont substitué des mondes de plus en plus complexes, textures gagnant en netteté, effet d'éclairage dynamique, etc. Parallèlement, l'incrustation vidéo s'est raffinée à mesure que la mémoire vive et la capacité de stockage augmentaient. Plusieurs incunabulas actuels offrent un amalgame de ces deux techniques, mais déjà certains se risquent à transposer les segments narratifs filmés en images de synthèse précalculées. L'hypothèse veut que, pour atteindre à la transparence visuelle la plus complète, le monde trop parfait proposé par l'imagerie synthétique actuelle devra être entaché [7], subir en quelque sorte une campagne de salissage afin d'imiter toute la finesse qui constitue le monde visible, dans un premier temps ; ensuite, il suffit d'attendre que cette représentation puisse être restituée en temps réel par de puissants moteurs 3D. On obtiendrait alors une iconicité dynamique, capable d'imiter le cinéma et de simuler la vision humaine. Même si cette iconicité n'est pas parfaite, elle permettra l'homogénéisation des rendus visuels.

S'il fallait survoler l'historique de la représentation visuelle générée numériquement, c'est pour mettre en contexte l'appréhension grandissante envers le syndrome Don Quichotte. Cette progression rapide de l'imagerie amène à concevoir une finitude, un idéal de transparence qui seraient atteints sous peu. Mais l'effet Hopper laisse concevoir l'évolution graphique comme une asymptote. L'intérêt ne se situe pas tant dans la reproduction sans faille du réel ; comme le précise Quéau, «les techniques de synthèse numériques rompent avec le photon. Elles sont entièrement saisies par le langage» [8]. Par ce langage, condensé et foisonnant, celui des mathématiques, «on ne cherche plus la «reproduction» du réel, mais les conditions de sa production» [9]. Voilà le renversement auquel on assiste présentement : ce n'est plus à l'utilisateur de créer une représentation mentale à partir d'un texte descriptif, à l'instar des jeux Infocom ; c'est la machine qui interprète les données langagières afin de nous servir un monde à voir. Caractéristique essentielle de ce dispositif qu'on tente ici d'esquisser, et qui sera l'outil privilégié des créateurs de demain pour raconter des histoires à chacun de nous, cette petite révolution permet de naviguer au sein de la représentation. Cette possibilité, entrevue dans une diégèse mimétique, exhortera l'envie d'interférer sur la façon dont un univers fictif s'offre à nous ; son aspect visuel pouvant être reformulé ad nauseum puisqu'il émane en grande partie [10] de considérations mathématiques, l'utilisateur acquiert une certaine liberté eut égard au temps et à l'espace de la fiction. Mais comment lui offrir ce don d'ubiquité sans provoquer la confrontation avec des outils de manipulations extra-diégétiques ? Comment préserver la transparence qui l'amènerait à s'incarner dans un ciné-oeil tout puissant, une caméra au regard pénétrant et qui ne brimerait pas la force immersive du médium provoquée par ses ressources visuelles ? En auscultant la fiction à venir, du moins l'idée qu'on s'en fait actuellement, la tentation d'étendre la logique de la transparence aux autres aspects du médium ne doit pas enthousiasmer au point de relayer aux oubliettes un problème de fond : concilier le maximum d'interactivité au sein d'un monde fortement immersif, l'effet fiction étant menacé de l'intérieur par cette source d'entropie qu'est l'utilisateur.

À force de gravir les échelons vers l'iconicité dynamique parfaite, l'imagerie numérique peut-elle vraiment octroyer à l'utilisateur un véritable contrôle au sein d'un «film» navigable en terme d'espace et de temps ? Peut-être devrait-on seulement lui donner une illusion d'ubiquité, dans cette logique implacable de la transparence à acquérir. Le trompe-l'oeil peut sembler sans faille, mais ce serait compter seulement sur sa qualité graphique : les moyens matériels par lesquels il s'offre à nous et l'interface à l'écran qui vient s'y jouxter sont deux aspects où la transparence sera plus difficile à conquérir. Taper «go north» sur un clavier malmène l'immersion propre au monde virtuel. La souris de Doug Englebart se laisse plus facilement oublier ; l'intention derrière le geste se manifeste à l'écran. Mais cette imbrication ne peut se passer d'une interface graphique lourde, en ce sens qu'elle révèle les limites du dispositif. Les premiers jeux d'aventure graphiques devaient présenter une liste d'action possible à l'utilisateur (marcher, regarder) qui, même lorsqu'elle intégrera des motifs iconiques pour symboliser ces actions, n'en est pas moins gênante que l'analyseur syntaxique des premiers temps ; à la limite, en affichant la liste on s'éloigne de notre idéal de transparence. Même l'artillerie de la réalité virtuelle, ses casques stéréoscopiques de moins en moins lourds, ne saurait être cet intermédiaire d'investigation parfaitement invisible pourtant anticipé : faites quelques compromis au niveau de la diégèse, limitez son exploration en confinant l'utilisateur, par exemple, à rester dans un véhicule, et vous provoquez une profonde immersion, certes, mais brimez par la même occasion sa réelle présence au sein du monde virtuel, d'une part, et surtout, par le biais de la simulation [11], vous renoncez à l'élaboration d'une diégèse qui se voit réduite aux possibilités d'action de ce nouvel intermédiaire.

À ce stade, il serait pertinent de noter les correspondances de cet exposé avec une vieille polémique. Il s'agit de la confrontation soulevée depuis Bazin entre deux conceptions antinomiques du montage cinématographique : d'un côté les tenants de la transparence, par l'entremise du plan séquence et de la profondeur de champ, aspirent à ériger le cinéma comme la nouvelle grande fenêtre ouverte sur le monde, apte à restituer «l'infinie polysémie du réel, [elle] dissimule l'intention discursive derrière l'évidence d'une présence» [12] ; cette ligne de conduite surgit quelques années suivant les excès des soviétiques, pour qui le montage est roi, et appelle la reconsidération eut égard aux règles depuis longtemps institutionnalisées du montage qui ont donné à la représentation cinématographique une certaine transparence, un «coulissage» entre les plans qui donne à voir un monde où tout semble aller de soi. Bazin dénigre cette forme de transparence de même que le montage excessif, empreints d'un didactisme menant droit à la passivité, et fait de l'activité spectatorielle son cheval de bataille : le spectateur doit lui-même trouver son chemin dans l'image lorsque confronté à un plan de longue durée, exhibant une profondeur infinie. Son idéal, dit-on parfois pour vulgariser ses idées, serait une caméra de surveillance, sans travail évident de l'instance énonciatrice ; d'aucuns n'oseraient prétendre que l'image de synthèse ne concorde mieux avec cet idéal.

De cette polémique on peut tirer quelques leçons utiles. D'abord, on constate dans l'argumentation bazinienne une brèche qui vient contaminer son propos de l'intérieur. Son principal objet d'analyse, la composition en profondeur chez Orson Welles, démontre la nécessité au sein même d'un plan séquence, plus transparent face au signifiant empirique (dixit Bazin), d'orienter la lecture du spectateur. Si vous exposez l'infinie polysémie du réel, sans prendre soin de hiérarchiser les éléments visuels par l'éclairage, les effets sonores, sans composition schématisée afin de créer une dynamique par le jeux des regards, les entrées et sorties de scène, le cadrage à l'intérieur même du plan, vous stimulez fortement l'attention du spectateur pour quelques temps, mais confronté à ce trop plein d'éléments et de temps, vous entraînez «une aliénation retorse du spectateur» [13]. Cas extrême : peu de gens ont assisté aux huit heures de projection d'Empire, film d'Andy Warhol ne donnant rien de mieux à voir qu'un plan fixe de l'Empire State Building. À ceux qui voient dans l'évolution numérique un dessein de reproduction parfaite du réel, on serait tenté de répondre : à quoi bon. Même la réalité virtuelle ne pourra offrir une représentation fidèlement transparente à son objet, ne serait-ce que dans son impossibilité d'offrir les équivalences physiques nécessaires : on ne peut simuler la marche de l'utilisateur sans le faire se heurter à un mur. La science-fiction saura inventer autant de dispositifs, de l'enveloppe complète à retour d'effort jusqu'à la prise en charge du système nerveux par la machine, afin de pallier ces lacunes mais ce qui importe ce sont plutôt les conventions qui devront s'installer afin que l'utilisateur puisse combler les insuffisances sans être aspiré hors de la diégèse.

Dans un premier temps, comment pouvons-nous organiser la lecture d'une fiction audio-visuelle multiforme sans alourdir la présentation et noyer l'utilisateur dans un fouillis incompréhensible ? Murray de dire : «We will need a coherent set of conventions for signalling interactors when they can move from one simultaneous action to another and for helping them keep track of where and when the various actions are taking place» [14]. Elle suggère de puiser ces conventions au théâtre, offrant la possibilité de suivre un personnage à sa sortie, et de naviguer entre plusieurs points de branchements. Aussi, elle envisage une présentation multi fenêtres pour laisser choisir la scène jugée pertinente, ce qui est difficilement admissible diégétiquement (à moins d'incarner un agent de sécurité tranquillement assis devant ses moniteurs de surveillance) et entraîne quelques problèmes de lecture. D'ailleurs, le défi a été relevé dernièrement par le cinéaste Mike Figgis [15] : l'écran divisé en quatre, chaque partie montre une série d'événements qui s'entrecroisent et se répondent. Le réalisateur n'a d'autre choix, afin d'éviter la cacophonie permanente, de mixer les quatre bandes sonores et oriente ainsi la lecture de son film. Son propos fait directement écho aux propositions baziniennes et démontre une fois de plus que, dans l'abstinence technique (ici le manque de casque individuel d'écoute dans les cinémas), des conventions peuvent rétablir une transparence, illusoire certes, mais suffisamment convaincante pour ne pas happer le spectateur et ainsi tapisser le quatrième mur.

Si le caractère encyclopédique de fictions multiformes ne peut être soutenu sans interface gênante, Murray hypothétise qu'il soit récupéré par un autre registre de navigation comme l'internet, plus apte à restituer sa structure de rhizome. Si le dessein est de surpasser les médias dits linéaires comme le roman et le cinéma, le dispositif se doit de générer les variantes suscitées par la navigation de l'utilisateur ; précalculer toutes les éventualités d'un récit multiforme, par le film ou l'image de synthèse, c'est en quelque sorte renouer avec cet aspect linéaire de la fiction tel que présenté par les médias actuels. Le démiurge, ayant prévu d'avance les différentes scènes d'une histoire, exerce toujours un contrôle absolu et ne rend accessible que certaines scènes selon le parcours d'un utilisateur. Les concepteurs de logiciels prétendront avoir contourné le problème de façon transparente, mais le soi-disant film interactif pèche par sa crédibilité : on n'a pas les moyens, ni l'espace nécessaires pour emmagasiner un nombre satisfaisant de variantes. Le monde n'évolue pas dynamiquement selon la présence du joueur mais attend de lui, par essais et erreurs, qu'il trouve la solution et progresse ainsi de façon linéaire. Peut-on espérer, après avoir saisi l'image par le langage et permettant ainsi la création visuelle ex nihilo, opérer une mise en boîte semblable avec les éléments qui composent un récit ?

Si la transparence d'une caméra omnisciente contrôlée par l'utilisateur au coeur du récit pose problème, rendre ce récit véritablement multiforme, évoluant selon les actions de l'utilisateur, et invisible relève du pur délire. Cependant, et de façon analogue à l'acte de montage assumé qui renvoie à une nécessité discursive au détriment d'une transparence sans faille [16], la hiérarchisation, dans un univers tridimensionnel réaliste, d'éléments susceptibles d'orienter l'exploration vers des avenues pertinentes (un objet précis fait surgir un pan du passé, par exemple) ou encore l'intrusion d'une interface capable de simuler un registre d'action plus étendu que le combat et la fuite, s'avèrent des moyens indispensables au développement de fictions interactives plus élaborées et personnelles. Dans la profonde intermédialité de l'époque actuelle, les nouveaux médias traversent une phase d'emprunt aux conventions développées dans d'autres champs d'activité pour mieux préserver l'effet fiction, jusqu'au moment où le support sera en mesure de s'affranchir de ces autres formes d'art, peut-être en poussant toujours plus loin les limites de son architecture systémique, lui permettant ainsi de s'adapter aux aspirations de chaque individu et de leur proposer un monde où ils pourront s'enrichir d'une certaine expérience personnelle. Selon Janet Murray, cette possibilité vaut en elle-même son pesant d'or et tout le travail nécessaire à l'élaboration de la fiction interactive.

Après avoir souligné l'émergence du film navigable et considéré ses limites, il convient de s'attarder plus spécifiquement aux questions soulevées par une fiction où chaque utilisateur est contraint, s'il veut connaître la suite des événements, d'incarner un personnage et d'agir. Non pas que ce soit une contrainte gênante, dans la mesure où l'immersion dans un monde qu'on peut explorer suscite naturellement notre désir d'agencement. Ce qui nous confronte une fois de plus au dispositif de communication homme/machine, qui doit s'immiscer en donnant l'illusion du naturel. Comme le note Pierre Lévy :

«Plus l'interface est naturelle, plus le dispositif technique sous-jacent relève d'un artifice perfectionné. La communication ne peut se rapprocher de l'interaction sensorimotrice directe que parce que des machines d'écriture fort abstraites sont à l'oeuvre au plus secret d'indispensables boîtes noires.» [17]

En fait, une si grande familiarité ne pourrait être restituée simplement au niveau logiciel sans l'apport de la réalité virtuelle. Un gant à retour d'effort peut habilement inféoder, en diégétisant la main de l'utilisateur, tout le registre iconique d'actions des interfaces graphiques actuelles. C'est l'imbrication du geste avec l'action souhaitée. Sans nécessairement compter sur cette technologie, Murray opterait pour une série d'actions primaires : «The easier these primitives are to learn and the less they call attention to the computer itself - that is, the more transparent they are» [18]. L'idée est intéressante dans la mesure où, même en ayant recours à la souris - par exemple, un bouton fait défiler une liste d'actions possibles - le joueur en fait rapidement abstention, d'une part, mais surtout vous donnez ainsi le loisir aux concepteurs d'opérer un casting en définissant le personnage à incarner à travers ses possibilités d'actions, limitant la capacité d'agencement d'un utilisateur pour mieux l'enrôler dans le moteur narratif. Bien entendu, rien n'empêche de multiplier les interfaces si le joueur fait évoluer son personnage, sans quoi il se heurte aux limites du dispositifs.

Un des problèmes majeurs de la fiction interactive relève des modalités de discussions avec les personnages du monde virtuel. Si l'on ne parvient pas à faire comprendre la langue aux ordinateurs, on peut toujours espérer que les avenues ouvertes par la reconnaissance vocale viendront pallier une collision certaine avec le quatrième mur. Jusqu'à maintenant, les concepteurs n'ont d'autres choix que de faire s'afficher une liste de répliques, limitant ainsi les possibilités d'interaction en plus de multiplier les interfaces au sein d'un logiciel, alors que l'idéal à conquérir serait l'homogénéisation des différents modes d'interaction. Par un système de mots clés appliqué à la reconnaissance vocale [19], vous pourriez contourner la rupture à l'apparition de l'interface graphique, mais un personnage qui ne comprend pas le sens de votre phrase peut vous servir une réponse incongrue, à moins qu'on ait prévu plusieurs répliques neutres et fuyantes. La compréhension et la synthèse de la voix, ce n'est pas pour 2001. Reste toujours la possibilité de contraintes de communication diégétisées. Pour le reste des comportements, il faudra des «alternatives symboliques pour des actions ne pouvant pas être exécutées directement sans déranger les limites de l'illusion» [20].

La clef d'un récit transparent, où les événements surviennent de façon crédible, réside dans l'élaboration d'un comédien virtuel susceptible, à l'image des acteurs de la commedia dell'arte, de s'adapter à n'importe quelle situation, ainsi que d'un système de récit pouvant enclencher plusieurs modes de développement narratif à n'importe quel moment de l'histoire, de la même manière que le barde de la tradition orale mémorise des formules utiles au bon déroulement de sa narration. C'est un peu ce que veut accomplir Lévy en exposant l'idéographie dynamique. Par la programmation «objet orienté», un acteur virtuel possède ses propres caractéristiques évoluant selon les rapports qu'il entretient avec d'autres objets et avec l'utilisateur, et accomplit certaines tâches lorsque les variables qui le composent ont atteint une certaine valeur. Dans un univers où «chaque idéogramme-acteur réagit aux autres idéogrammes et aux sollicitations de l'explorateur de manière autonome», la représentation issue du langage mathématique, «l'action qu'elle présente est en train de se faire, et non définitivement enregistrée, précisément parce qu'elle pourrait se dérouler autrement, tout de suite» [21]. Les logiciels de développement pourraient désormais inclure, par le générateur d'idéogrammes, une série de «stock characters» comme on dit au cinéma, c'est à dire un type de personnage ready-made auquel on peut jouxter une série de comportements autres que ceux prévus par sa nature virtuelle. Ce qui comprend sa mise en image. On pourrait également lui attribuer des mimiques propres, si besoin est d'avoir recours à la technique de motion capture pour mettre en boîte sa gestuelle et son squelette, qu'on pourra par la suite habiller de différentes manières.

Encore une fois, il ne s'agit pas, dans un premier temps, de s'attarder à la reproduction parfaite du réel. Du reste, cette entreprise ne peut être sérieusement considérée ; ce serait sauter une étape. «L'effet Eliza», c'est-à-dire l'attribution d'une certaine intelligence à un objet qui n'en possède pas autant, et le perfectionnement de cet effet constitue les nombreuses étapes intermédiaires, si l'objectif ultime peut seulement être envisagé [22]. De la même façon, une fiction interactive pourrait très bien récupérer les nombreux genres littéraires et cinématographiques : vous tenez ici un moyen d'immersion qui définit le rôle de l'utilisateur, donc lui impose naturellement des limites en occultant ces mêmes limites au sein d'un récit qui lui est familier ; il pourra progresser sans jamais se heurter au quatrième mur. Si nous voulons abstraire toutes les composantes du récit, au besoin créer un metteur en scène virtuel qui sert à «déterminer le point de vue et l'ordre séquentiel» [23] de l'actilogie, c'est à dire les acteurs-événements-idéogrammes qui peuvent survenir et à quel moment ils peuvent interagir, pour reprendre la terminologie déployée par Lévy, nous risquons aussi l'incohérence eut égard à l'énorme effort de programmation qui sera nécessaire, par exemple, pour faire reconnaître à ce metteur en scène ce qui constitue un déroulement aristotélicien, ce qui provoque le suspense. La «caméra» dont nous avons parlé dans la première partie, une fois prise en charge par cet intermédiaire auctoriel, pourrait livrer de nombreuses mises en scène, traiter une portion du récit selon des critères particuliers et même évolutifs. D'autant plus qu'un joueur peut sans cesse recommencer l'histoire, sur la modalité du «et si...», les virtualités ne demandent qu'à s'actualiser, et plus les différents aspects de la fiction seront saisis par le langage, pour reprendre l'expression de Quéau, plus l'idéal d'une fiction non linéaire pourra se réaliser sans appeler une tollé de reconsidérations désobligeantes.

Si, comme le dit Lévy, «le squelette de tout récit se ramène à une série d'actions transformant séquentiellement une situation, jusqu'à la conclusion ou au dénouement» [24], si nous pouvons isoler les pivots de ce squelette, programmer pour chaque paradigme (prodigué par le générateur d'idéogramme) certaines mises en syntagme précises (gérées par le metteur en scène), comme les modifications possibles du lexème par les différents morphèmes, si le joueur peut recommencer un récit qui d'autre part n'atteindra peut-être jamais les éléments de fermeture prédéfinis dans l'instance logicielle qu'est le metteur en scène, comment résoudre le problème du dénouement, sans quoi une fiction n'en est pas une, selon plusieurs ? Avec la possibilité de «puiser dans des méga-dictionnaires d'idéogrammes (édités sur disques optiques ou servis par le futur réseau numérique)» [25], d'objets-acteurs comme de nouveaux environnements, personnages, développements narratifs, etc ; en observant un monde virtuel évoluer, retirer un élément et en constater les conséquences, bref, dans une fiction à ce point multiforme, comment envisager sa conclusion ? Construirons-nous nous-mêmes un univers virtuel qui nous accompagnera tout au long de notre vie ? Passerons-nous nos futurs dimanches soirs à regarder les meilleurs moments d'un film créé par la présence d'un utilisateur en vogue, au sein d'un monde généré par un puissant outil de performance, empreint de la mémoire d'un autre utilisateur (accessible via le réseau), extension de la voie narrative du futur auteur qui ne devra peut-être que formuler les règles de variations de son univers diégétique, bref cet utilisateur deviendra t'il la prochaine star, capable d'amener un récit à terme, de ce dispositif fictionnel ; ce dispositif devra-t'il intégrer les conventions nécessaires qui feront interagir le joueur de façon à construire des histoires «souhaitables», comme l'exige le renforcement simpliste de certains jeux actuels qui se limite à gagner ou perdre ? Ou sinon, comme le prévoit Murray, apprendrons-nous à «apprécier les différents types de dénouement qu'un médium kaléidoscopique peut offrir» [26].

Quoi qu'il advienne, il est à parier que la mise en place d'un tel système, la création d'outils conviviaux cédera plus de liberté à l'utilisateur, et même à l'auteur, mais jusqu'à quel point les deux notions se contamineront-elles ? L'auteur, en manipulant ces outils et définissant ainsi les possibilités, recouvre-t'il son pouvoir, réinstaure-t'il la linéarité qui faisait foi de son emprise dans la matérialité brute des médiums traditionnels ? Ces outils ne se verront-ils pas mis à la disposition de l'utilisateur pour modifier le monde qui s'offre à lui ? Bref, le futur dispositif, souvent taxé d'immatériel, offre pourtant un certain support aux processus mentaux, tels remaniements, sauts dans le temps de la diégèse, flânage au sein de notre musée imaginaire, élaborations de différentes conjectures forgées dans la tête du lecteur et du spectateur qui, dans l'appropriation d'un récit, démontre déjà l'aspect non linéaire des médias actuels.


Carl Therrien
Montréal, 2001

1 - Le terme paradigme précise ici que la narrativisation des jeux n'est pas une évolution linéaire, à charge toute la violence, le récit minimum qu'on retrouve encore aujourd'hui dans cette production. On doit préciser aussi que l'évolution graphique des jeux, aussi bien dans le shoot'em up que dans le god game, a souvent été un vecteur de popularité et constitue donc un aspect attractif.

2 - On rétorquera que tout jeu vidéo est déjà immersif et narratif, mais il faut plutôt comprendre ici que le jeu en question démontre une impression de réalité et une cohérence narrative propre au film.

3 - Jean Baudrillard pose la base d'un questionnement plus pertinent qui ne tombe pas dans cette peur sans considération. En définissant l'Hyperréalité, la représentation n'est pas tant confondue avec l'objet qu'elle ne lui est préféré.

4 - Pierre Lévy, à propos des langues : «Venant combler un déficit iconique, la grammaire leur ajoute la dimension de l'image, elle permet aux mots de représenter des scènes». In : L'idéographie dynamique. Vers une imagination artificielle ?, Paris, La Découverte, 1991, p. 51

5 - Il est particulièrement saisissant lorsque agencé avec la capacité de la machine à reproduire un effet pictural classique, la modulation de la couleur : un coprocesseur peut manipuler une couleur de la palette, réduite à quatre ou cinq bits à l'époque, et faire varier sa valeur pour chaque ligne de définition horizontale.

6 - L'exemple canonique de cette pseudo-3d étant le célèbrissime Doom (ID Software).

7 - La conséquences de ces images trop «léchées» produit un effet de distanciation chez l'utilisateur, une impression de vision trop parfaite qu'on peut également ressentir devant un tableau hyperréaliste ; l'effet Hopper en quelque sorte.

8 - QUÉAU, Philippe. Éloge de la simulation. De la vie des langages à la synthèse des images, Éditions du Champ Vallon, 1986, p. 31.

9 - Ibid. p.116.

10 - À quel point les mondes virtuels de demain pourront-ils se passer de la mise en registre d'éléments visuels, (i.e. textures, incrustation vidéo) cela relève d'un défi colossal sans tomber du côté de la science-fiction ; pensons à ces paysages entièrement créés à partir de fractales.

11 - La simulation ne fait en somme que diégétiser l'interface, matérielle dans les coûteux simulateurs professionnels, à l'écran en ce qui concerne les versions logicielles.

12 - METZ, Christian. Essais sur la signification au cinéma, Tome II, Paris, Klincksiek, 1986, p. 42

13 - Ibid. p.42

14 - MURRAY, Janet H. Hamlet on the Holodeck. The Future of Narrative in Cyberspace, Cambridge, Mass., M.I.T. Press, 1997, p. 157

15 - Il s'agit de l'aventure Time Code (1999), projet ambitieux dont la force repose sur les possibilités de la vidéo numérique, apte à tourner chacun des quatre plans séquence en continuité.

16 - Et qui «tend à susciter un spectateur adulte et critique» selon certains théoriciens du cinéma (i.e. Marie-Claire Ropars-Wuilleumier), stimulant par la même occasion son activité et sa volonté de déchiffrement. METZ, Christian. Essais sur la signification au cinéma, Tome II, Paris, Klincksiek, 1986, p.42.

17 - LÉVY, Pierre. L'idéographie dynamique. Vers une imagination artificielle ?, Paris, La Découverte, 1991, p. 24.

18 - MURRAY, Janet H. Hamlet on the Holodeck. The Future of Narrative in Cyberspace, Cambridge, Mass., M.I.T. Press, 1997, p. 190.

19 - Une version parlante d'ELIZA en quelque sorte, logiciel créé par Joseph Weizenbaum en 1966.

20 - Traduction libre. MURRAY, Janet H. Hamlet on the Holodeck. The Future of Narrative in Cyberspace, Cambridge, Mass., M.I.T. Press, 1997, p. 269.

21 - LÉVY, Pierre. L'idéographie dynamique. Vers une imagination artificielle ?, Paris, La Découverte, 1991, p. 47.

22 - Murray rajoute : «We have to build the cat to reflect how humans feel about their housecats rather than what they might learn about them in the dissecting room». in Hamlet on the Holodeck. The Future of Narrative in Cyberspace, Cambridge, Mass., M.I.T. Press, 1997. p. 233.

23 - LÉVY, Pierre. L'idéographie dynamique. Vers une imagination artificielle ?, Paris, La Découverte, 1991, p.144. Lorsqu'il précise : «on ne peut représenter sur un écran l'interaction simultanée de tous les objets d'un modèle, à moins de renoncer à toute lisibilité», on retrouve les conclusions précédemment apportées sur la transparence bazinienne.

24 - Ibid. p. 111

25 - Ibid. p165

26 - MURRAY, Janet H. Hamlet on the Holodeck. The Future of Narrative in Cyberspace, Cambridge, Mass., M.I.T. Press, 1997, p. 180.

 


BIBLIOGRAPHIE

GAUDREAULT, ANDRÉ. Du littéraire au filmique, Montréal, Nota Bene, 1999.

JOLIVALT, Bernard. La réalité virtuelle, Paris, PUF, 1995.

LÉVY, Pierre. L'idéographie dynamique. Vers une imagination artificielle ?, Paris, La Découverte, 1991.

METZ, Christian. Essais sur la signification au cinéma, Tome II, Paris, Klincksiek, 1986.

MURRAY, Janet H. Hamlet on the Holodeck. The Future of Narrative in Cyberspace, M.I.T. Press, Cambridge, Mass., 1997.

QUÉAU, Philippe. Éloge de la simulation. De la vie des langages à la synthèse des images, Éditions du Champ Vallon, 1986.

RAYNAULD, Isabelle. « Du scénario de film aux scénarios multimédias dits interactifs : étude des pratiques d'écriture scénaristique», in Cinémas, vol. 2 no. 1, Montréal, Université de Montréal.