Leonardo On-Line, the website 
of Leonardo/ISAST  Leonardo, the Journal of the International 
Society for the Arts, Sciences and Technology  Leonardo Music 
Journal  Leonardo Electronic 
Almanac: monthly coverage of Internet news and digital media culture  Book Series: 
innovative discourse on art, science and technology topics by 
artists, scientists, researchers and scholars Leonardo Reviews: scholarly reviews of books, exhibitions, CDs, 
journals and conferences  OLATS, 
l'Observatoire Leonardo des Arts et des Technosciences: key works, 
artists, ideas and studies in the field  Leonardo / Activities and Projects  Leonardo / About Us   
 

ETUDES ET ESSAIS > LES BASIQUES > LE DESIGN D'INTERACTION > QU'EST-CE QUE L'INTERACTION DANS LE DESIGN ?
   
< - Sommaire - >   

  
 

Qu'est-ce que l'interaction dans le design ?







  1. Interaction versus interactivité
  2. Petite histoire de l'interface 2.1 L'interface : définition
    2.2 L'émergence de l'interface (1930 à 1990)
    2.3 Des interfaces graphiques aux interfaces haptiques (1990 à nos jours)
    2.4 Vers l'informatique ubiquitaire (de 2000 à nos jours)

    Références


Le symbole Ö avant ou après un mot indique un lien vers une autre fiche des " Les Basiques : Le design d'interaction ".





1. INTERACTION VERSUS INTERACTIVITE

Le terme « interactivité » a émergé dans le domaine de l’informatique mais son usage s’est aujourd’hui généralisé et indique tout rapport réciproque d’échange.

Afin de restituer à ce terme sa spécificité, nous proposons de distinguer l’interaction, qui définit généralement un mode de communication entre deux personnes, de l’interactivité, qui désigne plus spécifiquement la relation qui s’opère entre un utilisateur humain et un système informatique via des interfaces numériques.

L’émergence de la notion d’interactivité est liée à la naissance d’un nouveau type de machine, la machine « informatique », l’ordinateur.

Depuis toujours inscrite dans les évolutions de la technicité humaine, la machine matérialise une activité, exécute une consigne. Extériorisation et détachement de la motricité d’abord, de la force et de la mémoire ensuite, la machine n’est pas un simple instrument, mais un automate (un instrument automatisé). Elle relève non seulement de l’adhérence économique entre forme et fonction, mais elle est programmée pour accomplir une série de conduites, c’est-à-dire pour avoir des comportements. Ainsi, l’automatisation ne se limite pas à l’opération, mais s’étend, pour les machines les plus sophistiquées, à la surveillance, c’est-à-dire au contrôle sur l’opération.

Comme l’explique Norbert Wiener dans son livre Cybernetics (1948), à la différence des automates mécaniques traditionnels, les nouvelles machines informatiques, c’est-à-dire les ordinateurs, «ont des organes sensoriels» [1]  : ils ne sont plus des systèmes clos, mais sont au contraire dotés de membranes sensibles qui leur permettent de recevoir des informations de l’extérieur et d’instaurer ainsi un dialogue avec le sujet humain et l’environnement.

Ces membranes, ces organes de sens ouverts sur l’extérieur, sont appelées interfaces. [2]


C’est grâce aux interfaces que l’ordinateur devient une machine sensible et peut établir avec l’utilisateur une relation interactive.

Ezio Manzini, designer et professeur à l’École Polytechnique de Milan, s’est attaché à définir la spécificité de la relation interactive dans la perspective d’une histoire des objets et de leurs usages.

L’ordinateur en tant que nouvelle catégorie de machine, explique Manzini, impulse une «nouvelle sphère de relations» : «l'expérience que les ordinateurs nous proposent s'éloigne rapidement de celle qui a été traditionnellement la nôtre avec les autres types d’objet. Ils se présentent comme des entités hybrides à mi-chemin entre deux pôles : le monde matériel des choses et l’univers immatériel des échanges d’information. Entre un monde réel ayant une consistance physique, et un monde virtuel, fruit de subtiles simulations. Entre le monde des présences inanimées et celui des relations intersubjectives. Devant l'émergence de ces nouvelles entités hybrides, notre solide conception traditionnelle de ce qu'est un objet doit être remise en question ». [3]

Ainsi, l’objet interactif s'éloigne de la fonction de prolongement physique de nos facultés, il n’est plus une prothèse : «L'objet traditionnel interagit avec l'utilisateur de façon passive : il se contente d’exister, le sujet choisissant les utilisations possibles en lui attribuant différentes significations. Nous pouvons définir ce rapport comme une interaction asymétrique, cette asymétrie étant l’un des aspects sur lesquels on a toujours fondé l'idée d'objet par rapport à celle de sujet. Le propre de la nouvelle famille d'objets est, au contraire, de pouvoir modifier leur comportement en fonction d’une variable extérieure. Ils abandonnent donc leur passivité, ils instaurent un dialogue et définissent avec le sujet (ou avec l’espace) une interaction qui tend à devenir symétrique : les deux pôles peuvent agir et réagir l’un par rapport à l'autre». [4]

On passe donc de l’asymétrie de la relation sujet-objet à une relation plus symétrique, de l’interactivité à l’interaction. Grâce à la sensibilité fournie par les interfaces et à sa capacité d’interagir, l’ordinateur, la nouvelle machine informatique, n’est plus un objet, mais assume des caractères du sujet .[5]





2. PETITE HISTOIRE DE L’INTERFACE

L’évolution du design d’interaction est profondément liée à l‘évolution des interfaces. C’est pourquoi nous avons jugé nécessaire de revenir plus en détail sur l’histoire de l’interface.



2.1 L’interface : définition

Les interfaces sont des dispositifs techniques grâce auxquels l’utilisateur humain communique et interagit avec l’ordinateur. Les interfaces constituent « les organes de sens » du système informatique : elles permettent de capter les informations et les instructions de l’extérieur, d’afficher des données et de proposer des actions.

Pour cela on distingue donc les interfaces d’entrée, ou d’acquisition (par exemple le clavier, la souris, le scanner, la caméra, le micro, le joystick, etc.) et les interfaces de sortie ou de restitution (par exemple l’écran, l’imprimante, les haut-parleurs, etc.).

Les interfaces peuvent être hardware (matériel informatique périphérique) ou software (logiciels). Dans ce dernier cas, elles constituent les outils de manipulation à la surface du programme, à la fois moyen de sélection des commandes, instrument de navigation et d’organisation générale des informations. Ce type d’interface logicielle peut être à son tour divisé en deux catégories :

- en ligne de commande (Command Line Interface)

- graphique (Graphical User Interface GUI).

Dans le premier cas, l’interaction entre l’utilisateur et l’ordinateur se fait principalement au travers du clavier, sans visualisation élaborée, par l’intermédiaire d’instructions textuelles.

Dans le deuxième cas, la gestion de l’information se fait à l’intérieur d’un univers graphique, où les commandes et les opérations sont symbolisées par des images, que l’utilisateur peut manipuler directement à travers un système de pointage (qui coordonne les mouvements de la souris aux mouvements du curseur sur l’écran). [6]



2.2. L’émergence de l’interface (1930-1990)

L’objectif principal du design d’interaction est de concevoir (ou d’améliorer) les modes d’interactions de l’utilisateur avec l’environnement informatique, ce qui veut dire participer d’une manière essentielle à l’élaboration des interfaces, qu’elles-soient hardware ou software, des machines ou des logiciels.

Comme l’illustre Designing Interactions de Bill Moggridge, [7] l’histoire du design d’interaction est indissociable de l’histoire des interfaces. Voyons-en ici les étapes principales.

Presque tous les historiens considèrent le Memex de Vannevar Bush comme le premier épisode, l’acte fondateur. Dans les années 1930, l’ingénieur américain est le premier à préfigurer la forme et la fonction des interfaces graphiques. Dans ses articles, il conçoit une machine utopique, le Memex, dont l’objectif est de rassembler toute connaissance humaine dans une sorte de mémoire collective accessible. Il imagine cette machine comme un dispositif doté de claviers et d’écrans tactiles avec des affichages graphiques, où les informations sont connectées selon un système de liens qui anticipent le fonctionnement de l’hypertexte.

Mais il est trop tôt, sa vision restera isolée même si les technologies nécessaires sont en train d’être développées dans différents laboratoires aux États-Unis, notamment à cause de la deuxième guerre mondiale qui donne une impulsion pour la création de machines capables d’exécuter des calculs de plus en plus rapides (pour déchiffrer les messages codés des ennemis). En 1945, dans un célèbre article, As We May Think[8] Bush relance ses idées. Et cette fois, sa vision provoque d’importants retentissements.

C’est en s’inspirant du Memex de Bush que l’ingénieur en informatique américain Ivan Sutherland conçoit en 1963 le programme Sketchpad, qui ouvre le chemin à l’utilisation d’interfaces graphiques pour la manipulation des informations et constitue une véritable révolution dans le mode de l’interaction entre le sujet humain et la machine.

Également sous l’influence de Bush, l’ingénieur en électronique Douglas Engelbart publie en 1962 un essai tout aussi visionnaire, Augmenting Human Intellect[9] où il propose de nouveaux usages pour les ordinateurs, afin d’«augmenter la capacité de l’homme en situation problématique complexe, pour qu’il puisse comprendre plus précisément les besoins spécifiques de la situation et trouver les solutions adaptées ». [10]

Les perspectives ouvertes par Sutherland et Engelbart introduisent ce qui sera appelé plus tard le CAD (Computer Aided Design – en français CAO : Conception Assistée par Ordinateur), une technique de conception qui, au travers de la modélisation géométrique et de la simulation assistée par ordinateur, permet de dessiner des objets et des espaces tridimensionnels. La CAO s’impose aujourd’hui comme le principal instrument technique du design au travers de logiciels comme Alias, 3DsMax ou bien la suite Adobe.

Dans son laboratoire ARC (Augmentation Research Center) au Stanford Research Institute (SRI) de Menlo Park (États-Unis), Engelbart conçoit le On-Line System ou NLS, un système de visualisation qui connecte plusieurs ordinateurs. Lors d’une séance historique en 1968, il présente pour la première fois des dispositifs comme la souris, pointeur qui permet la sélection à l’écran d’éléments textuels et graphiques. Il pose en même temps les bases de ce que sont encore aujourd’hui les liens hypertextes, la connexion d’ordinateurs en réseau, le traitement de texte (word processing), la visualisation des dossiers par fenêtres (windows), l’e-mail ou encore la messagerie instantanée (instant messenging).

La recherche sur les interfaces graphiques se poursuit, notamment au Xerox Palo Alto Research Center, fondé en 1970 par l’entreprise Xerox. [11] En s’appuyant sur les études psychologiques de Jean Piaget et Jérôme Bruner (qui indiquent un modèle de développement de l’intelligence basé sur la reconnaissance visuelle et la comparaison d’images), les chercheurs du Xerox PARC s’orientent vers une interface qui représente les différentes fonctions à travers des objets graphiques stylisés à manipuler en utilisant la souris. Ces recherches aboutissent à la conception de l’Alto (1973), premier ordinateur qui exploite la métaphore du bureau afin de favoriser la compréhension du système, puis du Star (1981) dont l’interface graphique se construit sur la logique du WYSIWYG (acronyme de « What You See Is What You Get », « ce que tu vois c’est ce que tu obtiens »), c’est-à-dire que l’utilisateur voit directement à l’écran à quoi ressemblera le résultat final (que ce soit une page imprimée, une architecture, ou autre).

Toujours au Xerox PARC, une équipe dirigée par Alan Kay développe en 1972 Smalltalk, le premier modèle de langage de programmation orienté objet. Ce type de langage dépasse les codes textuels et s’organise autour d’un environnement de développement entièrement graphique, où les informations sont implémentées et manipulées sous forme d’objets.

En 1976, Steve Jobs et Stephen Wozniak avec leur start-up Apple, proposent Apple 1, le premier micro-ordinateur relié à un écran et un clavier. En 1977, Apple 2 s’impose comme le premier ordinateur personnel standard. En 1981, la société IBM met sur le marché son PC (Personal Computer) dont les ventes en deux ans dépassent celles de l’Apple 2.

En se fondant sur les recherches du Xerox PARC, Apple propose en 1983 le Lisa, le premier ordinateur personnel qui permet la manipulation directe d’objets graphiques avec une souris. Pour la première fois, l’ordinateur devient accessible aussi aux personnes sans compétence en informatique. Mais Lisa reste trop cher et n’est pas un succès économique, au contraire du Macintosh, commercialisé en 1984. Le succès de ce modèle ainsi que celui d’autres produits proposés par les sociétés IBM ou Microsoft, marquent le début de l’ère de l’ordinateur personnel (PC Personal Computer), un ordinateur de taille et coûts réduits, pensé pour que les individus puissent l’utiliser pour leur usage professionnel et personnel.

Les interfaces graphiques du système MacOS du Macintosh sont développées principalement par le programmeur Bill Atkinson, qui conçoit aussi deux logiciels fondamentaux : MacPaint, le premier outil de dessin assisté par ordinateur et HyperCard (1987), un logiciel qui permet de réaliser des bases de données combinant des textes, des éléments graphiques, et d’autres éléments logiciels. Avec sa facilité d’utilisation, HyperCard rend la programmation informatique plus accessible et diffuse la culture de l’hypertexte.

Le WIMP (acronyme anglais pour Windows (fenêtres), Icons (icônes), Menus (menus) et Pointing device, dispositif de pointage), interface graphique inventée par le Xerox PARC, connait grâce aux PC des années 1980 un énorme succès et s’impose comme la méthode principale de navigation, qui sera par la suite développée dans la majorité des systèmes d’exploitation – comme Mac OS, Microsoft Windows et Vista. L’utilisateur se retrouve dans un environnement familier, constitué de représentations graphiques des éléments qui identifient son espace de travail : le bureau, des dossiers qui contiennent des documents, des fenêtres pour contrôler les programmes.



2.3 Des interfaces graphiques aux interfaces haptiques (de 1990 à nos jours)

L’introduction d’interfaces pour la manipulation directe [12] d’éléments graphiques a produit une modification radicale à l’intérieur des systèmes de transmission et d’archivage du savoir, [13] en transformant non seulement la représentation de l’information mais aussi sa nature – d’une notion de signe graphique porteur de composantes sémantiques, syntaxiques et esthétiques à celle de signe qui contient les instructions qui permettent l’exécution pratique d’une action, à celle d’un signe interactif. Dans cette perspective, les icones et les menus, les fenêtres, les boutons et les curseurs constituent un nouveau dispositif dynamique basé sur un nombre limité de principes et de règles d’usages, pour enregistrer, transmettre et surtout interagir avec des données. A l’intérieur de ce dispositif, les opérations de base sont très simples (positionnement, sélection et émission de donnée [14]) mais, une fois combinées, elles permettent d’atteindre des objectifs extrêmement complexes et de manipuler de grandes quantités de données. Ce système émancipe la relation avec la machine de la sphère linguistique et ouvre sur une approche « performative » de l’interaction, en ouvrant le chemin à des interfaces gestuelles de plus en plus intuitives.

A partir des années 1990, des chercheurs commencent à explorer des interfaces qui font appel aux facultés haptiques et kinesthésiques de l’utilisateur. Au lieu de passer par l’intermédiation d’outils comme le clavier ou la souris, l’utilisateur touche l’écran et manipule directement les représentations graphiques des informations.

Un des projets pionniers d’interface tangible est Marble Answering Machine , développée par Durrell Bishop en 1992 : un répondeur formalisé comme une plateforme sur et dans laquelle circulent des billes. Chaque bille correspond à un message laissé sur le répondeur. L’utilisateur peut, comme il veut, écouter, réécouter le message ou rappeler en insérant la bille dans le trou correspondant sur la plateforme.

Mais c’est surtout le laboratoire Tangible Media, dirigé au MIT par l’ingénieur japonais Hiroshi Ishii qui a donné une visibilité à ce secteur de recherche. A partir de 1995, Ishii développe une réflexion à la fois théorique et pratique sur l’interaction entre homme et machine basée sur la représentation physique d’informations numériques. Dans « sa vision » (qu’il résume sous le nom de Tangible Bits), « il relie les mondes des atomes et des bits », en développant des interfaces où l’information est incarnée dans des surfaces tactiles manipulables. Ces dispositifs tactiles, comme par exemple Relief (2009), une table qui projette sur une surface malléable le rendu d’animation 3D d’un relief en mouvement, pourraient, selon Ishii, faciliter la visualisation et la gestion de données complexes dans des disciplines comme l’urbanisme, la médecine et la recherche scientifique.

Selon l’analyse du psycholinguiste Francesco Antinucci ces interfaces indiquent le passage d’un mode cognitif de type « symbolique-rationnel » à un paradigme « percepto-moteur ». [15]  Si le premier mode se réfère au décodage d’un texte, à la représentation et à la reconstruction de l’objet de la communication à travers un système de signes arbitraires et abstraits, dans le deuxième, la connaissance passe par l’action : on connaît les objets parce qu’on les perçoit, ou mieux parce qu’on constate les réactions de ces objets en fonction d’une action motrice. Fondée sur cette corrélation entre perception et action, cette modalité cognitive est primaire par rapport à la première.

La tradition culturelle occidentale des derniers siècles a assigné l’appréhension et la transmission des connaissances surtout en mode symbolique, en limitant progressivement l’opérativité motrice. La culture des textes détourne l’information du contexte spatio-temporel du monde physique pour la transférer sur des supports fixes, sur des objets externes au corps (comme les livres).

Dépassant la bi-dimensionnalité des interfaces graphiques traditionnelles ainsi que les expériences immersives de la réalité virtuelle, les explorations des médias tangibles cherchent à reproduire les conditions primaires de l’opérativité percepto-motrice.

Plus que la vraisemblance de la perception acoustique et visuelle, la sensibilité tactile et kinesthésique de la main, ainsi que ce que Ishii appelle « ambient media » (design de l’environnement général de l’interaction, de la lumière au son) correspondent donc à une stratégie communicative où l’interaction et la cognition passent par l’immersion et l’intégration progressive de toutes les composantes de l’opérativité percepto-motrice.

A partir de 2009, l’industrie électronique a vu un développement exponentiel des écrans tactiles. Le confort ergonomique et la simplicité de manipulation que ces interfaces proposent ont décidé des entreprises comme Apple (avec l’iPhone et l’iPad) à centrer leur système de navigation sur le toucher.



2.4. Vers l’informatique ubiquitaire (depuis 2000)

Dans son livre The Psychology of Everyday Things [16] , Donald A. Norman identifie trois phases dans l’évolution de l’informatique :

- La phase de l’unité centrale (Mainframe Stage), du début de l’informatique jusqu’aux années 1970, où les ordinateurs étaient des machines imposantes, couteuses et complexes, dont l’usage était limité aux spécialistes. Plusieurs utilisateurs humains travaillaient avec la même machine.

- La phase de l’informatique personnelle (Personal Computing Stage), à partir des années 1980, avec l’avènement des ordinateurs personnels, réduits en taille et en coûts et dotés d’interfaces de plus en plus intuitives et simples à utiliser. Les individus ont accès aux machines pour leur usage professionnel et privé.

- L’informatique ubiquitaire (Ubiquitous Computing Stage). Dans cette phase émergente, chaque utilisateur aura plusieurs ordinateurs : grâce aux développements de la miniaturisation des appareils multimédias, ils seront implémentés dans les objets du quotidien (bureau, mobilier, vêtements, etc.) et grâce au développement des réseaux sans fil, ils seront tous connectés entre eux.

Cette dernière phase, annoncée par Norman, est une réalité de plus en plus concrète : la diffusion exponentielle des appareils portables (des téléphones mobiles aux lecteurs Mp3, aux tablettes interactives comme l’iPad proposé par Apple en 2010) montre comment les technologies sont de plus en plus présentes dans notre quotidien. Si d’un côté ces dispositifs mobiles intègrent de plus en plus de fonctions, en devenant des sortes de «noyaux portables » de tous les supports informatiques, de l’autre le développement des systèmes de marquages interactifs comme les tags RFID (Etiquette de Radio Identification) ou les codes barres 2D, permet de géolocaliser l’utilisateur et d’activer des informations ou des contenus multimédias liés à n’importe quel objet ou environnement proche.

Le terme d’informatique ubiquitaire (Ubiquitous Computing) a été utilisé pour la première fois en 1988 par l’ingénieur américain Mark Weiser, chef du Xerox PARC, [17] pour décrire l’idée d’une informatique « invisible » , mais omniprésente et distribuée partout.

Selon Weiser, il s’agit d’inverser la perspective qui avait été celle de la réalité virtuelle dans les années 1990, « qui essayait de construire un nouveau monde à l’intérieur de l’ordinateur ». Au contraire, l’informatique ubiquitaire devrait « irradier de manière invisible le monde qui existe déjà », faire fusionner (et donc disparaitre) les technologies dans l’environnement qui nous entoure.

L’ordinateur, qui fait converger toutes les fonctions dans une seule machine serait remplacé par une panoplie d’appareils, mobiles, de taille de plus en plus réduite, connectables en réseau et progressivement intégrés aux objets de l’environnement .[18]  Pour Weiser « les technologies les plus pertinentes sont celles qui disparaissent ». [19]

Dans son livre The Invisible Computer (1999), [20] Donald Norman va dans la même direction. En analysant les difficultés et les frustrations éprouvées lors de l’interaction avec un ordinateur, il propose d’imaginer un design plus centré sur l’humain (Human Centered design, Ö) dans lequel les différentes fonctions de l’ordinateur seraient assurées par une série d’appareils (appliances), éparpillés dans l’environnement au lieu d’être concentrés dans un seul outil.

Cette perspective est adoptée aussi par Stefano Marzano, ancien PDG de Philips Design, qui a imaginé avec son équipe des scénarios dans lesquels l’informatique serait omniprésente et invisible : des capteurs et des micro-ordinateurs seraient intégrés aux vêtements, [21] mais aussi au cadre domestique, à l’environnement quotidien, pour que cet environnement puisse répondre automatiquement aux besoins de l’utilisateur.

La recherche sur les environnements intelligents (Ambient Intelligence), [22] qui s’étend de projets ludiques comme ceux développés au MIT MediaLab par Hiroshi Ishii, aux expérimentations plus visionnaires chez IBM et Philips Design, constitue une évolution informatique de ce qui était définit dans les années 1990 par le terme domotique. L’environnement enregistre ce qui se passe et répond à ces informations de manière intelligente : par exemple un système interconnecte la lumière et les autres contrôles d’ambiances (le chauffage, le taux d’humidité, etc.) avec un dispositif biométrique intégré dans un vêtement, de manière à ce que les conditions de l’environnement puissent être modulées selon les changements de température du corps et les déplacements de la personne.

Ces deux domaines de recherche – sur les technologies endossables (wearable computers) et sur l’intelligence de l’environnement – constituent aujourd’hui deux horizons fondamentaux de croisement entre l’expérimentation technique et le design.

L’informatique ubiquitaire impose à l’ingénierie, et surtout au design, de nouvelles méthodes : les interactions via les interfaces basées sur un système de commandes, sur des arborescences de menu ou sur des représentations graphiques tendent à être remplacées par des paradigmes d’interaction plus « naturels », plus simples, qui se fondent sur les actions et les modes d’usage des objets du quotidien. On rejoint le paradigme de « transparence » de l’objet, théorisé et pratiqué par le designer japonais Naoto Fukasawa : « le design se dissout dans le comportement ». [23]

L’objectif est justement de dépasser l’écart entre le monde du quotidien et celui simulé et interfacé de l’informatique. Il s’agit de faire finalement disparaître la technologie, pour se focaliser sur les comportements et les besoins de l’utilisateur.

Au moment où l’ordinateur devient « invisible » (Norman) et où les interfaces deviennent « incarnées et discrètes » (Weiser), les interactions tendent à correspondre aux gestes habituels du quotidien. Elles demandent donc moins d’attention, d’effort et de concentration, elles sont donc moins stressantes. Pour cela Weiser parle d’une « technologie calme » [24]  qui permettrait d’atteindre des utilisateurs qui auparavant n’avaient pas accès à l’informatique (personnes âgées, porteurs d’handicaps, etc.).

Dans Every(ware) (2006), le designer et chercheur américain Adam Greenfield trace un premier bilan des avancées de l’informatique ubiquitaire, qu’il préfère appeler « ubi-media ».

L’ubi-media « n’est ni une sorte de matériel informatique, ni un nouveau mode de conception de logiciels, ni un ensemble d’interfaces innovantes. Il est plutôt une situation (…), une sorte de champ informationnel, ambiant, omniprésent », où l’informatique (et sa force de calcul) « n’est plus enfermée dans une boîte multifonctionnelle, mais déployée dans l’environnement physique de l’utilisateur ». [25]

L’intégration de fonction de traitement informatique de données dans les objets du quotidien et leur connexion au réseau Internet constituent « la colonisation de la vie de tous les jours par les technologies de l’information ». [26]  Cette révolution technique impose de repenser la vie quotidienne, les relations avec les objets et avec autrui.

A ce propos, Greenfield cite l’exemple d’Octopus, carte de paiement électronique “sans contact”, utilisée à Hong Kong depuis 1997. Cette carte n’est pas seulement adoptée comme moyen de paiement dans les transports en commun, mais aussi pour les achats dans tous types de commerces : en devenant « universelle », elle a eu un énorme succès (plus de 9.000.000 d’utilisateurs) et a modifié les habitudes des utilisateurs.

« Tout est connecté à tout » : [27]  selon Greenfield, la logique de la convergence est inéluctable. Elle s’est déjà installée dans nos rituels et dans notre imaginaire, cependant il est encore difficile de comprendre quelles formes elle prendra dans le futur.

Greenfield, dans son livre, met en garde contre un certain nombre de conséquences négatives qui pourraient se lier à l’extension ubiquitaire du réseau informationnel – de l’objet à l’échelle de la ville. D’un côté cette extension pourrait provoquer une centralisation de la gestion de l’information de la part des acteurs qui en conçoivent l’architecture (qu’ils soient concepteurs, législateurs, entreprises) avec des risques d’imposition hégémonique sur la masse des individus, de l’autre elle pose le problème du fichage et de la manipulation de données privées.

Cette perspective critique sur les dérives de l’informatique ubiquitaire avait été inaugurée par le sociologue et urbaniste Manuel Castells, qui déjà en 1996 [28]  stigmatisait ce phénomène comme la manifestation d’une nouvelle société, basée sur un « capitalisme informatique ». L’économiste américain Jeremy Rifkin dans L’âge de l’accès (2000), décrit aussi les transformations qui s’infiltrent dans la société au travers de cette mutation qu’il analyse comme d’abord économique inaugurant une « nouvelle culture du capitalisme », une logique de la dématérialisation et de l’interconnexion globalisée, le passage des marchés aux réseaux, un nouvel horizon culturel, social et politique constitué principalement par les flux d’informations. Cette mutation pose la question de l’accès et de la participation de chacun aux décisions de gestion des réseaux, qui ne cessent de grandir. [29]

Grâce aux développements des bio et nanotechnologies à partir des années 2000, la matière vivante devient le nouveau territoire d’expansion de l’informatique ubiquitaire. La manipulation du code génétique permet un contrôle sur la matière biologique, qui auparavant n’était pas imaginable. La convergence entre l’informatique et la biologie, qui se transforme progressivement d’une science descriptive en une discipline de l’intervention et de la reformulation du monde du vivant, notamment grâce aux apports de la nano-ingénierie, permet de manipuler les bases informationnelles (le génome) des organismes vivants. Dans cette extension de la perspective ubiquitaire, l’invisible computer (machine informatique invisible), qui, selon Donald A. Norman, devait « se dissoudre dans les objets du quotidien », devient « une composante invisible du tissu de la vie ». [30]

En conclusion, comme l’explique l’écrivain de science fiction et théoricien du design Bruce Sterling Ö, cette évolution vers l’informatique ubiquitaire est implacable, et ouvre les enjeux du design vers une perspective plus vaste – à la fois en terme de zones d’intervention mais aussi en terme de responsabilité.

Comme le conclut l’architecte Malcolm McCullogh, « sur la vague de la diffusion de l’informatique ubiquitaire, le design d’interaction est amené à devenir un des arts libéraux principaux du XXIe siècle ». [31]





REFERENCES

- AARTS E., MARZANO Stefano, The New Everyday. Views on Ambient Intelligence, Rotterdam, 010 Publishers, 2003

- BONSIEPI Gui, Dall’oggetto all’interfaccia. Mutazioni del design, Milano, Feltrinelli, 1993

- BOTTA Massimo, Design dell’informazione. Tassonomie per la progettazione di sistemi grafici auto-nomatici, Trento, Valentina Trentini Editore, 2006

- BUSH, V., "As We May Think", The Atlantic Monthly, 1945. 176 (Juillet): pp. 101-108. Republié in ACM interactions, 3(2), March 1996, pp. 35-67 http://www.theatlantic.com/magazine/archive/1945/07/as-we-may-think/303881, http://engl114-pressman.commons.yale.edu/files/2008/09/vbush.pdf

- ENGELBART, D.C., “Augmenting Human Intellect: A Conceptual Framework”, Summary Report, Stanford Research Institute, on Contract AF 49(638)-1024, October 1962

- GREENFIELD Adam, Every(Ware), New Riders/Peachpit 2006, trad. fr. Every(Ware). La révolution de l’ubimedia, Limoges, Edition Fyp, 2007

- JOHNSON, J. et al, "The Xerox Star": A Retrospective", IEEE Computer, Septembre 1989 Republié in Buxton, W. et al, Human Computer Interaction: Toward the Year 2000, Morgan Kaufman, 1995 http://www.digibarn.com/friends/curbow/star/retrospect

- JONES R.A.L., Soft Machines. Nanotechnology and Life, Oxford University Press, 2007

- KRUEGER, Myron, Artificial Reality, Addison-Wesley, 1991

- MANZINI Ezio, Artefatti. Verso una nuova ecologia dell’ambiente artificiale, Milan DA edizioni, 1990, trad.fr. Artefacts : Vers une nouvelle écologie de l'environnement artificiel, Paris, Editions Centre Pompidou, 1991

- McCULLOGH Malcolm, Digital Ground. Architecture, Pervasive Computing, and Environmental Knowing, Cambridge, , MIT Press, 2004

- MYERS, B., "A Brief History of Human-Computer Interaction Technology", ACM interactions, 5(2):44-54, March/April 1998.

http://www.cs.cmu.edu/~amulet/papers/uihistory.tr.html

- NELSON, Ted, Literary Machines, Sausolito: Mindful Press, 1992

- NORMAN Donald A., The Invisible Computer. Why Good Products Can Fail, the Personal Computer Is So Complex, and Information Appliances Are the Solution, Cambridge, Massachusetts, MIT Press, 1999

- RASKIN Jef, The Human Interface. New Directions for Designing Interactive Systems, Readings Massachusetts, Addison Wesley, 2000

- RIFKIN Jeremy, The Age of Access. The New Culture of Hypercapitalism, New York, Jeremy P.Tacher/G.P. Putnm’s Sons, 2000, trad.fr. L’âge de l’accès. La nouvelle culture du capitalisme, Paris, La Découverte, 2005

- SHNEIDERMAN, B., “Direct Manipulation: A Step Beyond Programming Languages,” IEEE Computer 16(8) (August 1983), 57-69.

- SHNEIDERMAN Ben, PLAISANT, Catherine, Designing the User Interface: Strategies for Effective Human-Computer Interaction, Addison-Wesley, New York, 2009

- SMITH, D.C., et al, "The Star User Interface: an Overview", in Proceedings of the 1982 National Computer Conference. 1982. AFIPS. pp. 515-528 http://www.guidebookgallery.org/articles/thestaruserinterfaceanoverview

- WEISER, M., “The Computer for the Twenty-First Century,” Scientific American, 265(3):94-104, September 1991. Une version mise à jour de ce texte est disponible en ligne : http://www.ubiq.com/hypertext/weiser/SciAmDraft3.html

- WEISER Mark, SEELY BROWN J., The Coming Age of Calm Technology, Xerox Parc 1996 http://www.ubiq.com/hypertext/weiser/acmfuture2endnote.htm





Sommaire

  • Qu'est-ce que le design d'interaction ?

  • D'où vient le design d'interaction ?

  • Qu'est-ce que l'interaction dans le design ?

  • Quelles sont les différentes approches du design d'interaction ?

  • Quelles sont les principales théories ?

  • Quels sont les lieux de formation au design d'interaction ?

  • Quelques exemples d'application du design d'interaction

  • Conclusion : quelle évolution pour le design d'interaction ?




    Notes :


    1 WIENER Norman, Cybernetics in History, The Human Use of Human Beings (1954), reprise de Cybernetics (1948), in PACKER Randall, JORDAN Ken (Eds.), Multimedia. From Wagner to Virtual Reality, London NY, W.W.Norton & Company, 2001, p.52.

    2 Voir AKYPI Madeleine, LOTZ Susanna, QUINZ Emanuele (Eds), "Interfaces", anomalie 3, Éditions Hyx, 2002.

    3 MANZINI Ezio, Artefatti. Verso una nuova ecologia dell’ambiente artificiale, Milan DA edizioni, 1990, tr.fr. Artefacts : Vers une nouvelle écologie de l'environnement artificiel, Paris, Éditions Centre Pompidou, 1991.

    4 MANZINI Ezio, Artefatti. Verso una nuova ecologia dell’ambiente artificiale, Milan DA edizioni, 1990, tr.fr. Artefacts : Vers une nouvelle écologie de l'environnement artificiel, Paris, Editions Centre Pompidou, 1991

    5 Manzini le définit «objet quasi-sujet», en reprenant un terme proposé par Michel Serres et ensuite par Bruno Latour. Voir LEVY Pierre, Les technologies de l’intelligence. L’Avenir de la pensée à l’ère informatique, Paris, La Découverte, 1990, pp. 156-158, 183 et LATOUR Bruno, Nous n’avons jamais été modernes, Paris, La Découverte, 1991.

    6 A ce propos, WEISSBERG Jean-Louis, Présences à distance. Déplacement virtuel et réseaux numériques, Paris, L’Harmattan, 1999, distingue une interactivité de langage – qui procède par une suite d’instructions codées à un programme – de l’interactivité de commande – qui désigne les situations où le langage n'est pas le vecteur principal, et où au contraire l'interaction se déroule à travers l'activation d'interfaces, de menus ou de zones sensibles sur l'écran. Ce deuxième modèle tente d’élargir le champ de l’interaction au corps, en essayant « de restituer, dans le cadre d'un espace contrôlé par programme, des activités corporelles telles qu'un déplacement dans l'espace, une épreuve de pilotage d'engins, un combat de rue ou une compétition sportive », et il est décliné aujourd’hui dans la grande majorité des jeux vidéos, les visites de villes ou de musées, les univers virtuels basés sur la communication par avatars interposés, reposent sur de telles « simulations corporelles ».

    7 MOGGRIDGE Bill, Designing Interactions, Cambridge, Massachusetts, MIT Press, 2007.

    8 BUSH, V. (1945) “As We May Think”,The Atlantic Monthly, 1945. 176 (Juillet): pp. 101-108. Republié in ACM interactions, 3(2), March 1996, pp. 35-67.

    9 ENGELBART Douglas, Augmenting Human Intellect: a Conceptual Frame (1962), republié partiellement in PACKER Randall, JORDAN Ken (Eds.), Multimedia. From Wagner to Virtual Reality, London NY, W.W.Norton & Company, 2001

    10 ENGELBART Douglas, Augmenting Human Intellect: a Conceptual Frame (1962), republié partiellement in PACKER Randall, JORDAN Ken (Eds.), Multimedia. From Wagner to Virtual Reality, London NY, W.W.Norton & Company 2001, p.67.

    11JOHNSON, J. et al (1989) “The Xerox "Star": A Retrospective”,IEEE Computer, September 1989. Republié in BUXTON, W. et al, Human Computer Interaction: Toward the Year 2000, Morgan Kaufman, 1995.

    12 Sur la notion de manipulation directe, cf. SHNEIDERMAN Ben, "Direct Manipulation: A Step Beyond Programming Languages", in IEEE Computer 16(8) (Août 1983), pp. 57-69. Voir aussi BOTTA Massimo, Design dell’informazione. Tassonomie per la progettazione di sistemi grafici auto-nomatici, Trento, Valentina Trentini Editore, 2006.


    13 A ce changement dans les interfaces correspond le développement, dans le domaine de la programmation, de la programmation par objets - un système conçu comme une architecture où chaque composante est considérée comme un objet manipulable selon un certain nombre d’actions.

    14 Voir MARINI Daniele, La forma dell’interfaccia, in ANCESCHI Giovanni (ed), Il progetto delle interfacce. Oggetti colloquiali e protesi virtuali, Milano, Domus Academy,1992.

    15 ANTINUCCI Francesco, Il corpo della mente, in CAPUCCI Pier-Luigi (Ed.), Il corpo tecnologico, Bologna Baskerville 1994, pp.17-24. Voir aussi ANTINUCCI Francesco, Parola e immagine. Storia di due tecnologie, Laterza, 2011.

    16 NORMAN Donald A., The Psychology of Everyday Things, New York, Basic Books, 1988.

    17WEISER, M., “The Computer for the Twenty-First Century,” Scientific American, 265(3) : 94-104, September 1991

    18 Weiser propose de classer ces appareils en trois catégories : Tabs – appareils portables sur soi dont l’unité de mesure est le centimètre ; Pads – appareils tenant dans la main dont l’unité de mesure est le décimètre ; Boards - appareils d’affichage interactif dont l’unité de mesure est le mètre.

    WEISER, M., “The Computer for the Twenty-First Century,” Scientific American, 265(3) : 94-104, September 1991

    19WEISER, M., “The Computer for the Twenty-First Century,” Scientific American, 265(3) : 94-104, September 1991

    20 NORMAN Donald A., The Invisible Computer. Why Good Products Can Fail, the Personal Computer Is So Complex, and Information Appliances Are the Solution, Cambridge, Massachusetts, MIT Press, 1999.

    21 Voir MARZANO Stefano, Past Tense, Future Sense: Competing with Creativity: 80 Years of Design at Philips, BIS Publishers, 2005. Dans ce volume, Marzano ex-PdG de Philips Design retrace l’histoire des productions de la société hollandaise inspirées par l’exploration de l'interactivité appliquée à l’objet. Pour les Wearable Computers, voir MARZANO Stefano (Ed), New Nomads: An Exploration Of Wearable Electronics By Philips, Rotterdam, 010 Publishers, 2001.

    22 AARTS E., MARZANO Stefano, The New Everyday. Views on Ambient Intelligence, Rotterdam, 010 Publishers, 2003.

    23 Voir Naoto Fukasawa, Londres, Phaidon, 2007.

    24 WEISER Mark, SEELY BROWN J., The Coming Age of Calm Technology, Xerox Parc, 1996.

    25 GREENFIELD Adam, Every(Ware), New Riders/Peachpit 2006, trad. fr. Every(Ware). La révolution de l’ubimedia, Limoges, Edition Fyp, 2007, p.34.

    26 GREENFIELD Adam, Every(Ware), New Riders/Peachpit 2006, trad. fr. Every(Ware). La révolution de l’ubimedia, Limoges, Edition Fyp, 2007, p.36.

    27 GREENFIELD Adam, Every(Ware), New Riders/Peachpit 2006, trad. fr. Every(Ware). La révolution de l’ubimedia, Limoges, Edition Fyp, 2007, p.99.

    28 CASTELLS Manuel, The Rise of Network Society, Wiley 1996, trad.fr. La société des réseaux, Paris, Fayard 2001. Pour une vision panoramique sur la pensée de Castells, voir The Castells Reader on Cities and Social Theory, sous la direction d’Ida Susser, Oxford Blackwell Publishers, 2002.

    29 RIFKIN Jeremy, The Age of Access. The New Culture of Hypercapitalism, New York Jeremy P.Tacher/G.P. Putnm’s Sons, 2000, trad.fr. L’âge de l’accès. La nouvelle culture du capitalisme, Paris, La Découverte, 2005.

    30 JONES R.A.L., Soft Machines. Nanotechnology and Life, Oxford University Press, 2007.

    31 McCULLOGH Malcolm, Digital Ground. Architecture, Pervasive Computing, and Environmental Knowing, Cambridge, Massachusetts, MIT Press, 2004.



    © Leonardo/Olats & Luca Marchetti et Emanuele Quinz, juillet 2013
  •    



    [ S'informer ]   [ Recherche ]    [ Commander ]    [ Statistiques ]    [ Accueil ]


    Copyright Association Leonardo/OLATS © 1997
    pour toute re-publication de cette page, merci de contacter Annick Bureaud <info@olats.org>
    pour les problèmes concernant le site, notre webmaster <webmaster@olats.org>
    Leonardo is a federally registered trademark of Leonardo/ISAST -
    Leonardo est une marque déposée de Leonardo/ISAST, selon la loi fédérale des Etats-Unis d'Amérique.