UNIVERSITÉ “ POLITEHNICA” DE BUCAREST FacultÉ d’ingÉnierie en langues Étrangeres ordinateurs eT tehNologie de l’information PROJET DE FIN D’ETUDE… [304006]

UNIVERSITÉ “ POLITEHNICA” DE BUCAREST

FacultÉ d’ingÉnierie en langues Étrangeres

ordinateurs eT tehNologie de l’information

PROJET DE FIN D’ETUDE

Coordinateur (Tuteur) : Étudiante :

Ș.l.dr. Maria DASCALU Cornelia Silvia Paula

Liana MICOROIU

Bucarest 2017

UNIVERSITÉ “ POLITEHNICA” DE BUCAREST

FacultÉ d’ingÉnierie en langues Étrangeres

ordinateurs et technologie de l’information

L’essai des produits innovants de logiciels pour

les malvoyants et les aveugles

Coordinateur (Tuteur): Etudiante:

Ș.l.Maria-Iuliana DASCĂLU Cornelia Silvia Paula Liana

MICOROIU

Bucarest 2017

UNIVERSITÉ “ POLITEHNICA” DE BUCAREST

FacultÉ d’ingÉnierie en langues Étrangeres

ordinateurs et technologie de l’information

Approuvé

Directeur de département :

Prof. dr. ing. George DRAGOI

Sujet du projet de fin d’Étude pour :

Cornelia Silvia Paula Liana MICOROIU

Titre du thème (du sujet) : L’essai des produits innovants de logiciel pour les malvoyants et les aveugles / Testarea produselor software inovatoare pentru deficienți vizuali și orbi

Données initiales de conception : L'application propose des moyens novateurs pour les aveugles. L’objectif du projet est d’utiliser les avantages d’[anonimizat] réalité virtuelle, pour moderniser les soins de santé et aider les personnes ayant une déficience visuelle.

Contribution de l’étudiant :

Recherche sur les méthodes actuelles concernant l’ordinateur pour aider les déficients visuels ;

Recherche sur les applications existantes basées sur la réalité virtuelle ;

Développement de l’application.

Matériel graphique obligatoire :

Diagrammes d’activités ;

Diagramme de cas d’utilisation ;

Diagrammes de classes ;

Essais de produits-état de l’art.

Le mémoire est basé sur les connaissances acquises au fil des études des cours suivants :

Génie logiciel, Méthodes et Techniques de Dé[anonimizat]

sémantique.

L’environnement de développement de l’ouvrage : [anonimizat] à : Expliquer comment les produits innovants de logiciels peuvent faciliter et aider la vie des personnes atteintes d’une déficience visuelle.

Délai de l’ouvrage : Juin 2017

Academic Honesty Statement (Déclaration d’honnêteté académique)

Je, soussigné, Cornelia Silvia Paula Liana MICOROIU, déclare que le projet de fin d’étude ayant le titre ,, L’ESSAI DES PRODUITS INNOVANTS DE LOGICIELS POUR LES MALVOYANTS ET LES AVEUGLES ’’  qui est soutenu publique devant le jury pour les PFE’s à l’Université “ POHNICA” [anonimizat]é d’Ingénierie en Langues Étrangeres, en vue d'obtenir le grade d’ingénieur, est le ré[anonimizat]é sur mes travaux.

Le mémoire de la thèse, [anonimizat]ériences et les mesures qui sont présentées sont entièrement réalisés par moi-même sous la direction de mon tuteur sans l’implication d’autres personnes qui ne sont pas citées par leur nom et leur contribution dans la partie ,, Remerciements ’’. Toutes les sources et les ressources utilisées sont indiquées dans les références du mémoire de la thèse et mentionnées au fil du mémoire.

Le projet n’a jamais été présenté à un établissement d’enseignement supérieur ou institut de recherche dans le pays ou à l’étranger.

Toutes les informations utilisées, y compris les ressources d’Internet, sont obtenues à partir des sources qui ont été cités et indiqués dans les notes et dans la bibliographie en conformité avec les normes éthiques. Je comprends que le plagiat est une infraction et il est punissable en vertu de la loi.

Les résultats des modélisations, des simulations, des expériences et des mesures sont authentiques. Je comprends que la falsification des données et des résultats constitue une fraude et est punie conformément à la réglementation et aux lois existantes.

Cornelia Silvia Paula Liana Micoroiu, Date :

Sommaire

Remerciements…………………………………………………………………….1

1. Introduction………………………………………………………………………………2

Motivation…………………… …………………………………………………2

Les objectifs de la recherche …………………………………………………..3

Structure de la documentation…………………………………………………4

Présentation du domaine

Les déficiences visuelles……………………………………………………….5

2.1.1. Définition……………………………………………………………………5

2.1.2. Classification et causes des déficiences visuelles…………………………6

2.1.3 Le handicap visuel au travail……………………………………………….8

2.1.4. Les répercussions de la perte de la vision sur le plan éducatif…………10

2.1.5. Les aides dont l’élève peut avoir besoin………………………………..10

2.2. Les divers aides techniques pour la déficience visuelle……………………..11

Les technologies d’assistance pour les malvoyants et les aveugles

3.1. La technologie au service des aveugles et des malvoyants………………….12

3.2. Eclairage et malvoyance………………………………………………………21

3.3. La technologie d’assistance…………………………………………………….23

Tests d’utilisabilité et essai des produits innovants de logiciels……………. ..…..27

Introduction aux tests logiciels………………………………………………29

Test du logiciel ..………………………………………………………………29

Les types des tests…………………………………………………………….32

Les différentes étapes du tests du logiciels …………………………………33

Les plus importanes types de tests ………………………………………….35

Tests d’utilisabilité …………………………………………………………..39

Le mode opératoire…………………………………………………………..40

Mesures l’utilisabilité…………………………………………………………40

Conseil…………………………………………………………………………41

Choisir un panel utilisateur représentatif………………………………..42

Études de cas

Les tests des utilisabilités avec des utilisateurs malvoyants……………….43

5.2 Tests d’utilisabilité dans le projet Sound of Vision ……..…………………..43

5.3. Politiques d'accessibilité, suivi et gestion du risque.………………………..44

5.3.1. La définition d'une politique d'accessibilité selon la WAI………….44

5.3.2. L’approche WAI……………….………………………………………44

5.4 Étude de cas pour le projet « Sound of Vision ».………………………………45

5.5 Les résultats de mes recherches pour le projet « Sound of Vision » ……….60

L’agenda virtuel pour les malvoyantes et les aveugles: E- notes…………….……65

6.1 Fonctionnalités & Technologies ..……………………………………………67

6.2 Architecture……………………………………………………………………89

Conclusions……………………………………………………………………………92

Références et annexes…………………………………………………………………99

Remerciements

Je suis profondément reconnaissante à ma professeure de l'Université ’’ POLITEHNICA’’ de Bucarest, Mme Conférencière, PhD Maria-Iuliana Dascălu, qui a volontairement donné son temps et m’a fourni avec enthousiasme des informations au besoin. Je voudrais lui remercier pour sa grande bienveillance, sa confiance inconditionnelle, sa contribution à évaluer le contenu de mon activité et ses précieux conseils. Ses commentaires et ses suggestions ont été toujours très utiles, aussi bien que son assistance professionnelle infatigable.

Outre, je tiendrais à exprimer ma gratitude à M. Ing.PhD Alin Moldoveanu et à Mlle Chef chargée de cours aux travaux de recherche, PhD Oana Bălan.

Je voudrais adresser aussi, mes sincères remerciements à tous les professeurs de l’Université ’’ POLITEHNICA’’ de Bucarest, qui par leurs paroles, leurs écrits, leurs conseils et leurs critiques ont guidé mes réflexions durant mes études universitaires.

1. Introduction

1.1. Motivation

La vue est la fonction essentielle de l’œil, l'analyseur visuel produisant la transformation d’une lumière d'excitation spécifique dans une sensation visuelle. Environ 90% de tous les renseignements nécessaires à notre bon fonctionnement sont fournies par l'œil. La fonction visuelle est composée de trois sensations : la lumière, la forme et la couleur. La plupart des personnes pensent quelqu’un est soit voyant, soit aveugle, pourtant la déficience visuelle comporte un vaste champ de handicaps et des pathologies liées à la vision. Elle comporte quatre stades : la vision normale, la déficience visuelle modérée, la déficience visuelle grave et la cécité.

La déficience visuelle désigne les troubles liés à la fonction visuelle, qui peut être de la naissance ou persistent même après des traitements thérapeutiques, médicaux, ou chirurgicaux. Elle est définie par deux critères : l'état du champ visuel (étendue de l'espace qu'un œil peut saisir) qui peut causer des difficultés entres autres de déplacement et la mesure de l'acuité visuelle (aptitude d'un œil à apprécier les détails). Les déficiences visuelles comprennent différents degrés d'incapacité visuelle variant d'une vision affaiblie jusqu' à une absence totale de la vue. En fonction de ces derniers critères il y a deux catégories de personnes atteintes de déficience visuelle : ceux dont l'acuité visuelle corrigée est inférieure ou égale à 1/20, atteints de cécité – les aveugles- et ceux dont l'acuité visuelle après correction du meilleur œil est comprise entre 4/10 et 1/10, atteints d'amblyopie- les malvoyants. Donc une personne déficiente visuelle doit apprendre à fonctionner à partir des autres sources d'informations.

La vision normale, quand à elle, se définit par une acuité de distance de 20/20 dans leur meilleur œil avec ou sans et un champ visuel de 180°. Actuellement on participe et vive ensemble à une nouvelle révolution de l’informatique et des systèmes informatiques pour apporter un progrès et un confort supplémentaire sans exception, à chacun d’entre nous. Ces nouveaux systèmes informatiques trouvent leurs applications dans un domaine très étendu : du e-commerce à l’information, en passant par le télétravail et l’éducation. Dans cette révolution d’ordre numérique se pose la question : sont les systèmes informatiques efficaces et accessibles aux personnes atteintes d’une déficience visuelle ?

Pour les déficients visuels les méthodes et les outils utilisés pour l’apprentissage de la lecture et de l’écriture sont les clés essentielles pour accéder à l’information et aux connaissances en vue de s’intégrer socialement et profession-nellement.

Dans mon projet de fin d’études, j’ai décidé d’explorer le domaine de la réalité virtuelle et les essais de produits innovants des logiciels en vue d’améliorer leurs utilisation pour les personnes atteintes d’une déficience visuelle.

1.2. Les objectifs de la recherche

L’un des principaux objectifs de ma recherche est de faciliter et d’aider la vie des personnes atteintes d’une déficience visuelle, parce que c’est moi-même qui j’ai connu les vicissitudes d’une déficience visuelle.

Il y a deux ans auparavant, à la fin d’un examen, par hasard, aux yeux, un ophtalmologiste m’a diagnostiqué une cataracte bilatérale. Après avoir demandé un deuxième point de vue concernant le diagnostic, on a suivi l'inévitable opération, même s’il n'y avait pas d'études sur des jeunes patients, sauf sur ceux âgés ou sur les patients souffrant de cataracte congénitale.

Aujourd'hui, la chirurgie des cataractes est effectuée à l'aide d'un petit robot permettant le remplacement de la lentille naturelle par un cristallin artificiel sans affecter d'autres parties de l'œil. Dans la plupart des cas après un certain temps on forme une cataracte secondaire qui peut être enlevée par un laser.

Malheureusement pas tous les gens ont cette nouvelle chance à une vie presque normale. Il y a des petits et des jeunes gens qui ne pourront pas en profiter d’une guérison, même partielle.

Les personnes atteintes de déficience visuelle et même les aveugles à l'aide des spécialistes essaient et parviennent à faire face aux tâches quotidiennes de la vie.

Dès leurs plus jeune âge les personnes atteintes de déficience visuelle et même ceux aveugles apprennent en défaut de la vue, le développement de l'ouïe et les réactions aux bruits de tous les jours. Ils apprennent du Braille, à rencontrer et éviter les obstacles, comment faire la distinction entre certaines qualités des matériaux, par une tactilité incroyable.

Bien que nous soyons au XXIe siècle, on ne peut pas certainement établir les causes des maladies des personnes aux déficiences visuelles.

Au fur et à mesure du développement de technologies innovantes, les chercheurs et les scientifiques vont améliorer l'intelligence artificielle qui aidera ceux qui ont une déficience visuelle de vivre de mieux en mieux, ce qui porte à l’avenir l'espoir d'une vie normale et indépendante.

1.3. Structure de la documentation

La documentation contient sept chapitres importants.

1.3.1. Le premier chapitre comprend : l’Introduction, la Motivation et les Objectifs du projet, ainsi qu’une description courte de la structure du projet.

1.3.2. Le deuxième chapitre a le but de faire une présentation générale du domaine traité dans le projet, concernant la définition et les types de déficience visuelle, ainsi que les méthodes de traitement existantes pour les déficience visuelle en mettant l’accent sur les méthodes qui utilisent la technologie, surtout la réalité virtuelle. Je ferai aussi une analyse comparative des applications existantes qui utilisent la réalité virtuelle, en essayant d’accentuer les points faibles et les points forts aux chacunes.

1.3.3. Dans le troisième et le quatrième chapitre, on va présenter la métho-dologie de recherche utilisée, en mettant l’accent sur la manière de l’établissement des tests, des tests fonctionnels et non-fonctionnels, ainsi que les alternatives tech-nologiques qui pourraient être utilisées pour développer une telle application.

1.3.4. Le chapitre cinq contient l'étude de cas concernant le projet « Sound of Vision ».

1.3.5. Le chapitre six contient l’application du projet.

1.3.6. Le chapitre sept contient les conclusions du projet.

2. Présentation du domaine

2.1 Les déficiences visuelles

2.1. Définition

Dans l’ensemble des pays industrialisés la déficience visuelle constitue un problème d’importance croissante. L’âge des personnes de plus de 65 ans est la principale cause des maladies oculaires. Les pathologies connues des sujets âgés, insuffisamment traitées ou prises en charge, sont souvent devenus des sources de handicap et de dépendance. La déficience visuelle augmente très fortement à partir de 60 ans et encore plus à partir de 80 ans : il y aurait 20% des personnes atteintes entre 85 à 89 ans et 38% à partir de 90 ans. La déficience visuelle est plus fréquente chez les femmes à partir de 75 ans. La grande majorité des déficients visuels vivent en domicile ordinaire, seulement 21% des déficients visuels bénéficient d’un taux d’invalidité ou d’incapacité par la sécurité sociale.

Lorsque les ressources thérapeutiques, médicales ou chirurgicales ont été épuisées la déficience visuelle est le stade final d’une atteinte oculaire bilatérale qui répercute d’abord sur les activités mettant en jeu la vision centrale (lecture, écriture, reconnaissance des visages, manipulation d’objets…) et sur les déplacements, surtout dans les environnements inconnus. La perte de l’acuité visuelle nécessaire à la vision des détails de notre environnement, et du champ visuel indispensable à la perception de l’espace dans lequel on évolue repose en général sur l’évaluation du trouble. Selon le degré de sévérité, on parle de cécité ou de malvoyance, les valeurs seuils de ces deux paramètres pouvant varier selon les circonstances.

2.1.2. Classification et causes des déficiences visuelles visuelles

Fig.1. (Classification de l’OMS)

Globalement les maladies oculaires responsables de déficience visuelle vont de l’anomalie optique corrigée par le port de lunettes à des pathologies plus graves pouvant aboutir à la cécité. Ces maladies oculaires représentent 6% des motifs de recours aux soins de ville et 4% des hospitalisations en court séjour. Les études ont noté que chez les jeunes de moins de 15 ans, 14% des filles et 16% des garçons déclarent un problème de réfraction (myopie, hypermétropie, astigmatisme). Avant les 45 ans, la pathologie visuelle de l’enfant et de l’adulte jeune est dominée par les troubles réfractifs et la presbytie. À l’âge adulte, le nombre de personnes atteintes de déficience visuelle augmente de façon très importante, après 45 ans, 75% des personnes présentent une presbytie. Après 60 ans, la principale cause de malvoyance, et surtout de cécité, est le diabète, estimant qu’après 15 ans d’évolution de la maladie, environ 2% des diabétiques sont aveugles et 10% souffrent de malvoyance à cause d’une rétinopathie diabétique. L’examination du fond d’œil de tous les diabétiques au moins une fois par an sont nécessaires mais seulement le traitement au laser de la rétinopathie diabétique dépistée suffisamment tôt permet d’éviter des complications. [3].

Il y a plusieurs causes de la déficience visuelle :

blessures aux yeux- particulièrement celles de la cornée, sont la cause la plus fréquente de perte de vision ;

infections des yeux : parfois une infection virale comme la rubéole qui est transmise de la mère pour le développement du fœtus pendant la grossesse et le bébé peut naître avec la cécité ou la déficience visuelle ;

les conditions héritées de l’atteinte de cécité et de la vision: la rétinite pigmentaire est la cause la plus fréquente de cécité héréditaire ;

l’amblyopie : une déficience visuelle d’œil due à l'absence de son utilisation dans la petite enfance; le strabisme ou « lazy eye », les deux yeux envoient des messages différents au cerveau, qui peut alors désactiver ou supprimer les images de l’œil plus faible, arrêtant le développement de l’œil plus faible et conduisant à une amblyopie de l’œil ;

la cataracte : normalement, l'objectif est clair pour laisser entrer la lumière qui met l'accent sur la rétine. Les cataractes empêchent la lumière de passer facilement à travers la lentille, et cela entraîne une perte de vision, habituellement chez les personnes âgées. La cataracte est la principale cause de cécité dans le monde (47,8 %) par rapport à d'autres troubles oculaires.

la rétinopathie diabétique: le diabète affecte les petits vaisseaux sanguins de la rétine, endommagés ceux-ci conduisent à la détérioration de la vision. C’est la cause la plus fréquente de cécité et des déficiences visuelles dans le monde.

le glaucome : condition en raison de la pression élevée dans les yeux. L'augmentation de la pression altère la vision par endommager le nerf optique.

la dégénérescence maculaire liée à l’âge: une perte progressive de l'acuité visuelle due aux dommages causés à la macula qui est la partie la plus sensible de la rétine.

SIDA liés à des déficiences visuelles: – ceci est habituellement causée par des infections virales des yeux appelées rétinite cytomégalovirus ou CMV.

le cancer des yeux: le rétinoblastome est le cancer le plus souvent aux yeux des enfants. Il y a entre 300 et 400 nouveaux cas diagnostiqués chaque année. [3]

2.1.3. Le handicap visuel au travail

Fig.2. (CNAM ANACT)

Fig.3. (E.GRANJEAN)

L'utilisation maximale des autres perceptions sensorielles – l’ouïe, le toucher, l’odorat, le sens kinesthésique – mènent à la compensation du handicap visuel. Le système braille intégral ou abrégé et les aides optiques permettent aux malvoyants et aux non-voyants de mieux appréhender leur environnement, d’identifier et de contrôler les mouvements du corps pour parvenir à des gestes précis et efficaces. Les malvoyantes et les aveugles aprennent des techniques spécifiques qui contribueront à la compensation recherchée.

Les aides techniques comprennent deux directions: d’une part certaines font appel à l'informatique, permettant la gestion autonome des données et favorisant l'accès à l'information (avec sortie en braille, en voix synthétique ou sur écran grossissant), et d'autre part certaines sont representés par l’assistance optique (pour les malvoyants), telles que les loupes électroniques. [3]

2.1.4. Les répercussions de la perte de la vision sur le plan éducatif

Pour les élèves souffrant d’une une perte de vision on doit souvent trouver des moyens différents de faire les choses, parce qu’on sait que leurs possibilités d’apprentissage en sont parfois réduites. Pour les élèves aux prises avec une perte de la vision, l'acquisition des certains concepts et certaines habiletés, il leurs faut plus de temps : l’aptitude à s’orienter et à se déplacer, l’acquisition de concepts, les habiletés de communication interpersonnelle, le perfectionnement scolaire, l’aptitude à la vie quotidienne. Aussi important pour les élèves ayant une déficience visuelle, aussi bien que pour les autres élèves, c’est la classe, que peut être un endroit formidable pour favoriser le développement et la maturité de tous les élèves. La capacité de se déplacer en toute sécurité et efficacité, avec toute aisance et autonomie possibles définit souvent « l’orientation et la mobilité » c'est-à-dire le fait de savoir où l’on est, où l’on veut aller et comment faire pour s’y rendre. Il est important de faire participer les élèves ayant une déficience visuelle à l’ensemble de la vie scolaire, dont les assemblées, les sorties, les expériences en milieu de travail et les activités spéciales. Les élèves ayant une déficience visuelle ont des grands obstacles à surmonter que les autres élèves, pour réussir à s’adapter à l’environnement physique de l’école. Qu’il s’agisse de suivre le cours d’éducation physique ou d’aller aux toilettes, sont des activités qui peuvent être sources de difficultés. Les exercices d’évacuation, comme les mesures à suivre en cas d’urgence, peuvent aussi exiger certaines façons spéciales de procéder pour les élèves ayant une déficience visuelle. [3]

2.1.5. Les aides dont l’élève ayant une déficience visuelle peut avoir besoin

Les ressources pour les élèves ayant une déficience visuelle comprennent une liste du matériel le plus fréquemment utilisé : une vaste gamme de matériel et d’appareils auprès du Provincial Resource Centre for the Visually Impaired (PRCVI) et de l’organisme Special Education Technology (SET-BC).

Papier : du papier à filets gras et à interlignes larges peut aider les élèves ayant une déficience visuelle qui ont une difficulté à écrire sur du papier ordinaire ; aussi on peut se procurer du papier quadrillé pour les cours de mathématiques et du papier pour la notation musicale.

Livres : des manuels écrits en gros caractères, version « améliorée » (caractères plus gros ou plus foncés) ou en braille ; aussi il existe des versions « parlantes » de nombreux manuels et romans, dans la mesure possible, on recourt aux textes enregistrés par des professionnels. [3]

2.2. Les diverses aides techniques pour la déficience visuelle.

Le matériel ou l’équipement technique sont des aides techniques destinés à permettre à une personne mal ou non voyante de retrouver une certaine autonomie et de se maintenir dans son cadre de vie familial et professionnel.

Pour la lecture il y a des loupes, des lampes, des télé agrandisseurs, des systèmes télescopiques, des logiciels d'agrandissement, des synthèses vocales, des livres en Braille ou des livres audio.

Pour l'écriture il y a l’écriture manuscrite (avec guide main par exemple), Braille, la dactylographie, l’informatique adaptée ; 
Pour les déplacements : l’apprentissage de la locomotion, les systèmes de repérage (GPS, dispositifs sonores pour les feux, canne longue, chien guide).

Les équipements collectifs peuvent améliorer l'accessibilité de la population déficiente

visuelle à la voirie à n'importe quel destination et aux différents moyens de transports. Aussi

de nombreux outils et objets de la vie quotidienne sont vocalisés et permettent de cuisiner,

bricoler, téléphoner, s'organiser (montres, réveils, téléphones, balances, agenda électronique,

etc.) aux personnes déficientes visuelles. [9].

Pour ceux en situation de déficience visuelle, le choix se situe entre les aides auditives

et/ou tactiles. Pour les personnes qui sont aidées par les techniques auditives :

le logiciel JAWS (logiciel de lecture d'écran d'ordinateur) permet la navigation dans les différents logiciels ( système d'exploitation – uniquement Windows -, traitement de texte, navigateur Internet ). [9]

Pour les personnes qui utilisent les techniques tactiles :

le bloc note Braille – qui tient compte de leur déficience avec un plage tactile ( de 20 à 40 cellules braille). Il dispose de différentes outils intégrés tels qu'un logiciel de traitement de texte, une calculatrice (standard et /ou scientifique), un navigateur Internet, etc. Ces outils intégrés varient en fonction de la marque et du modèle de la machine. De même, l'encombrement de celle-ci varie de la taille d'un ordinateur portable jusqu'à une version minimaliste de 700 grammes ( hors housse et branchement au secteur ). On trouve également une connectique intéressante telle que la possibilité de brancher un bloc note à un ordinateur ( fonction clavier braille ), à une imprimante, à l'Internet. Il est également possible d'y associer un clavier AZERTY. Des fonctions plus étendues peuvent également être présentes : connectivité infrarouge, bluetooth, possibilité de branchement d'une clé USB ou de cartes mémoire type Compact Flash. [9]

3. Les technologies d’assistance pour les malvoyants

et les aveugles

3.1. La technologie au service des aveugles et des malvoyants

« Les personnes aveugles, ou très malvoyantes utilisent un ordinateur fixe ou portable grâce à un logiciel de revue d’écran qui retranscrit les données numériques affichées à l'écran sous deux formes :

– vocale (on parle alors de synthèse vocale)

– braille grâce à une plage braille. Il s’agit d’un dispositif raccordé à l'ordi-nateur qui restitue le texte affiché à l’écran en temps réel en caractères brailles, sous forme de picots reconstituant les cellules braille. Ces picots mobiles apparaissent et disparaissent au fur et à mesure de la navigation.

FORJA possède différentes dimensions de plage tactile: 40, 60 ou 80 caractères.

Fig.10. ( N. QUESNOT et C. ZAMBOU ’’Enseignants

bureautique spécialisée” )

Ces utilisateurs déficients visuels ont alors la capacité de naviguer dans un écran sans le voir, en ayant mémorisé l’interface.

Il est important de noter que le travail avec une synthèse vocale et un terminal braille demande une bonne représentation mentale de ce qu'est l'écran ordinaire et de bonnes facultés de mémorisation. En effet, ne pouvant visualiser l'écran, la personne non-voyante ou malvoyante profonde devra le représenter mentalement, le mémoriser, se rappeler l'enchaînement des événements. Elle devra, pour se représenter la réalité, la structurer, solliciter beaucoup plus qu’une personne voyante ses processus de mémorisation et de synthèse. Elle est ainsi amenée à déployer une activité cérébrale très importante, au début de son apprentissage.

Pour écrire l’utilisateur peut s’en servir, couplé à la plage braille, d’un clavier standard qu’il devra connaître par cœur. Il devra mémoriser tous les raccourcis clavier pour travailler sur l’ordinateur qui, en toute logique, n’est pas équipé de souris. » [13]

Fig.11. ( N. QUESNOT et C. ZAMBOU ’’Enseignants

bureautique spécialisée” )

Pour écrire, la personne déficiente visuelle peut également utiliser un "bloc-note braille" disposant d’un clavier de saisie de 8 touches qui permettent directement d’écrire en code braille. Ce bloc-note, qui dispose aussi d’une plage braille, peut être utilisé de façon autonome, un peu comme un ordinateur portable.

Fig.12. ( N. QUESNOT et C. ZAMBOU ’’Enseignants

bureautique spécialisée’’ )

« Pour une personne malvoyantes une adaptation personnalisée est possible en fonction de son potentiel visuel.

Elle peut utiliser directement les possibilités de grossissement du système d’exploitation de son ordinateur.

Ou elle peut se servir de logiciels spécifiques qui permettent d'agrandir les informations à l'écran tel que ZOOMTEXT. Ces derniers permettent à la fois d’agrandir les caractères, le curseur et le pointeur, mais aussi de les mettre en évidence avec différentes couleurs et de jouer sur les contrastes.

Il est important de noter que le malvoyant utilisateur d'un logiciel d'agran-dissement n'a plus la possibilité d'utiliser sa vue globale à l’écran. Il doit donc mettre en place une mémoire visuelle en puzzle, puzzle sans cesse en cours de re-constitution. » [13]

Fig.13. ( N. QUESNOT et C. ZAMBOU ’’Enseignants

bureautique spécialisée” )

Ce type de logiciel peut aussi proposer une synthèse vocale. Des claviers adaptés peuvent être associés.

Fig.14. ( N. QUESNOT et C. ZAMBOU ’’Enseignants

bureautique spécialisée” )

Des aides optiques peuvent être couplées à l’ordinateur facilitant la lecture des documents et des affichages, ou la perception d’explications gestuelles. ( loupe, vidéo-agrandisseur, monoculaire, télé- agrandisseur,… – voir photos ci-dessous )

Fig.15. ( N. QUESNOT et C. ZAMBOU ’’Enseignants

bureautique spécialisée” )

Fig.16. ( N. QUESNOT et C. ZAMBOU ’’Enseignants

bureautique spécialisée” )

Fig.17. ( N. QUESNOT et C. ZAMBOU ’’Enseignants

bureautique spécialisée” )

Fig.18. ( N. QUESNOT et C. ZAMBOU ’’Enseignants

bureautique spécialisée” )

Pour accéder à l’information, une machine à lire peut aussi être utilisée. Il suffit d’appuyer sur un bouton pour déclencher la lecture de tous types de documents dactylographiés. Il faut placer le document imprimé sur la vitre du scanner (comme dans une photocopieuse) qui le photographie et le met dans la mémoire de l'ordinateur. Ensuite, le logiciel de reconnaissance optique de caractères (OCR) effectue la reconnaissance de l'image et la traduit en fichier texte qui peut être lu par synthèse vocale.

Aucune connaissance en informatique n’est requise ; ce matériel est très simple d’utilisation et apporte une autonomie importante dans la lecture personnelle des documents.

« Tous ces systèmes sont aussi des aides précieuses pour l’utilisation des smartphones: dictaphone, synthèse vocale, connexion avec une plage braille, application intégrant un clavier braille… permettent la navigation dans le téléphone ou encore l’écriture et la lecture de SMS… » [13]

La loupe électronique

Une télévision à circuit fermé à basse vision (CCTV) est destinée aux personnes qui ont besoin de texte et de photos agrandies, mais constatent que leurs loupes optiques actuelles ne répondent plus à leurs besoins. Lors de la sélection d'une loupe vidéo, vous devez d'abord la tester avec des éléments tels qu'un annuaire téléphonique ou une facture d'utilité, un chéquier, un journal ou une photo.
Il est très facile à utiliser et vous pourriez trouver une aide précieuse pour grossir et voir à peu près n'importe quel objet et / ou matériel de lecture.
Le moniteur CCTV peut agrandir non seulement le matériel de lecture, mais aussi les objets, comme une bouteille ou une étiquette sur ordonnance sur un pot. Cette technologie de vision basse vous permet de : lire un journal, écrivez vos chèques, voyez vos médicaments, voir pour se raser, voir pour se maquiller, lire une étiquette de nourriture, vérifiez votre maquillage, couper les ongles, regardez les albums photo, l’adresse d'une enveloppe, lisez vos factures, rechercher des numéros de téléphone, lisez la Bible, écrivez une liste à faire, comptez votre argent, enfiler une aiguille. [37]

Les importantes types de tests pour les personnes avec malvoyant sont :

Edencast -Déficience visuelle et nouvelle technologie : le site des informations sous forme de publications écrites (articles) et sonores (podcast). Les lecteurs du site ont la possibilité de s’abonner à des forums de discussion afin de favoriser l’entraide entre utilisateurs.

La communauté dispose également d’une logithèque multiplateforme, laquelle permet à ses membres d’y référencer leurs applications favorites compatibles avec les lecteurs d’écran.

Edencast collabore ponctuellement avec des développeurs en vue de les sensibiliser à l’accessibilité et les aider à améliorer l’interface de leurs applications en ce sens. Ce partenariat est d’autant plus enrichissant qu’il permet de renforcer la cohésion entre les développeurs et les utilisateurs déficients visuels.

Pour rester informé des dernières actualités d’Edencast, une application iPhone est disponible sur l’App Store. [16]

Un drone pour guider un joggeur aveugle : Il existe plusieurs solutions pour courir quand on est non-voyant. S’accompagner d’un partenaire-guide, courir avec une canne et un GPS dédié aux mal-voyants. Ou se fier à un drone. C’est le système qu’a développé Eelke Folmer, professeur associé au département d’informatique de l’université du Nevada, à Reno (Etats-Unis), habitué aux projets concernant les mal-voyants.

Il a utilisé un quadroptère  comme partenaire de course. Equipé de deux caméras, l’engin vole devant la personne. L’une est braquée sur la piste. L’autre cadre est un repère placé sur le coureur lui-même. Et le drone émet un son lui permettant d’être toujours repérable à l’oreille par le mal-voyant. Ainsi, d’un côté, le drone respecte l’itinéraire et entraîne le coureur à sa suite, de l’autre, il reste « attaché » à ce même coureur, s’adaptant même aux variations de vitesse. Le quadroptère est en effet programmé pour voler en permanence à trois mètres devant la personne, toujours audible. Ce dernier point découle d’une première expérience menée l’an dernier avec un adolescent aveugle et un drone contrôlé manuellement.

Le dispositif n’a cependant pu être testé qu’en intérieur, avec la caméra fixant une ligne droite au sol au lieu d’une vraie piste de course. Les réglementations de la Federal Aviation Administration interdisent pour l’heure au professeur d’expérimenter son drone en extérieur, l’université étant située trop près de l’aéroport de Reno. [14]

Voiture sans conducteur: un rêve qui deviendra réalité pour les aveugles et mavoyants?

La voiture sans conducteur ne relève plus de la science-fiction. Encore au stade expérimental, cette technologie a permis à une petite Citroën C4 de rouler de manière autonome de Paris à Bordeaux, soit 580 kilomètres, sans que l’homme n’ait à intervenir. Une équipe de TF1 a pu conduire cette voiture bardée de capteurs et de calculateurs. [14]

Fig.19. ( N. QUESNOT et C. ZAMBOU ’’Enseignants

bureautique spécialisée” )

Lunettes Parler / Talking Glasses

Et si, au lieu de voir une image, on pourrait vous dire ce que c'est? Cette nouvelle technologie de basse vision est différente des autres types de lunettes, car au lieu d'essayer d'améliorer sa vision, l'appareil parle de ce qu'il voit.
OrCam a permis d'améliorer son indépendance avec un appareil qui peut être monté sur n'importe quelle tenue aux yeux.

La connexion cérébrale des yeux / The Eye BrainConnection

Une approche unique

Offrant une approche unique pour traiter la faible vision, le Dr. Ronald Siwoff, OD, FAAO, DPL-ABO et son équipe de professionnels ont bénéficié du traitement holistique des patients atteints de maladie maculaire. En plus d'un examen complet de la vue, les patients sont évalués quant à la santé globale et à la connexion œil-cerveau.[36]

La méthode de Siwoff repose sur la prémisse que l'œil ne fonctionne pas dans le vide.
Le Dr. Siwoff est assisté par une équipe d'optométristes agréés, des techniciens en paraptométrie autorisés et un conseiller professionnel agréé spécialisé dans la cognition et la fonction visuelle. L'acte de voir est étroitement lié à la santé globale du patient, à la structure des yeux, au système oculomotrice, aux neuro-récepteurs et au cortex visuel.

Fig.48. Lunettes Parler/Taking Glasses

3.2 Eclairage et malvoyance

« Les technologies d'assistance permettent ou facilitent l'utilisation de l'ordinateur, l'accès aux contenus, bureautiques ou web, et leur création. Elles comprennent :

des aides logicielles, comme les lecteurs d'écran ou les loupes

des aides matérielles : souris, claviers, micros, trackballs, plage Braille, etc.

L'accessibilité assure l'accès universel aux contenus par différentes approches :

renforcer les atouts du navigateur (affichage personnalisé, favoris, historique ) et du site ; (structure efficace et permanente, accès rapides…)

assurer l'accès à toute l'information, notamment celles contenues dans les images, les vidéos, les animations ;

proposer des contenus alternatifs si nécessaire ;

faciliter l'accès par les technologies d'assistance.

À la bibliothèque de Sciences Po, ( l'une des plus riches collections européennes en sciences humaines et sociales qui nous propose également de très nombreuses ressources numériques, accessibles aussi à distance ) des cabines de travail insonorisées sont équipées pour les handicapés visuels. Elles proposent une synthèse vocale, un agrandisseur d'écran, la reconnaissance de caractères sur des documents scannés, un clavier et une imprimante braille. [33]

Fig.50. Lunettes de dégénérescence maculaire haute Technologie

Des lunettes de haute technologie qui permettent au porteur de faire un zoom avant, de faire un zoom arrière, d'ajuster le contraste et d'en faire une nouvelle fois grâce à un travail innovant d'e Sight Corp hors du Canada.

Fig.46. Accéder aux différents outils numériques mis à la disposition par

Sciences Po

Des alternatives sont déployées pour l'accès des personnes malenten-dantes aux vidéos, ou plus généralement aux événements tels que conférences, débats. Les dispositifs peuvent comprendre :

la retranscription simultanée par écrit sur des écrans ;

une alternative en langue des signes ;

le sous-titrage de la vidéo ;

sa transcription textuelle .

Sur le site des Ressources numériques, nous avons choisi de proposer pour chaque vidéo une transcription textuelle, qui reprend l'intégrale de l'interview ( pour les malentendants ) et un descriptif des informations importantes à l'écran ( pour les malvoyants ). » [15]

3.3 La technologie d’assistance. L'accessibilité du web : un enjeu social

Fig.47. Le programme Access-Key

Iphone

L'iPhone est une excellente technologie de vision basse. Comment on peut observer, les icônes ou les applications sont très faciles à voir – elles peuvent être agrandies à plusieurs tailles différentes.
En appuyant simplement sur l'icône du téléphone, la liste des contacts apparaît. La liste des contacts peut être classée par ordre alphabétique ou en énumérant les "Favoris".
En appuyant simplement sur le nom, le numéro est composé.
Le texte ou la police des noms dans votre liste de contacts peut être agrandi en utilisant la fonction de texte de zoom.

Fig.49. Iphone

Téléphone activé par la voix

S’il y a quelqu'un qui cherche un téléphone activé par la voix ou un téléphone cellulaire activé par la voix, l'Iphone 5 ou l'Iphone 6 offrent la commodité des commandes vocales. D'abord, il faut construire le carnet d'adresses avec les noms et les numéros de téléphone des amis et des membres de la famille. Ensuite, il faut dire simplement : "Appelez …X…" et le numéro de ’’…X…’’ est automatiquement composé pour celui qui l’avait commandé. Pas besoin de le trouver dans le carnet d'adresses ou d'entrer son numéro. Il est possible également d’envoyer un texte par commande vocale. Encore une fois, il faut dire, "Texte …X…", puis indiquez le message qu’il faut envoyer.
Un grand nombre d'outils d'assistance technologiques sont disponibles pour faciliter l'utilisation des ordinateurs pour les personnes handicapées.

Les produits disponibles pour les systèmes d'exploitation Windows sont les

suivants :

les programmes qui permettent d'agrandir les informations affichées sur l'écran ou d'en modifier la couleur.

les programmes qui transcrivent les informations affichées sur l'écran en braille ou qui permettent de les lire à l'aide d'une voie de synthèse.

les outils matériels et logiciels qui adaptent les fonctionnalités de la souris et du clavier.

les programmes qui permettent à l'utilisateur de saisir du texte à l'aide de la souris ou en le dictant.

les logiciels d'écriture intuitive qui permettent d'écrire plus rapidement en réduisant la frappe. [34]

L'accessibilité numérique consiste à permettre à tous, notamment les personnes souffrant de handicap, d'utiliser des ordinateurs et leurs logiciels, et de consulter ou créer des ressources numériques, sur tout type de support (ordinateur, téléphone portable, tablette…).

L'accessibilité numérique concerne tous les types de handicap : visuel, auditif, moteur, cognitif, technique.

Plutôt que d'adapter des produits aux handicaps, on préfèrera la notion de conception universelle, qui tend à réaliser des produits pouvant être utilisés par tous, sans distinction de sexe, d'âge, de situation ou de handicap. L'accessibilité numérique favorise tous les types de handicap, y compris ceux dus au vieillissement. Des améliorations sont en réalité des bonnes pratiques qui facilitent l'accès de tous aux sites ou applications numériques. [34]

Le rôle du logiciel est qu’il a aussi appelé grossissement de caractères, et permet à l'élève ou à l’étudiant malvoyant de pouvoir utiliser un écran d'ordinateur dont le contenu aura été modifié par un effet de loupe.[35]

Les fonctionnalités de la zone grossie sont:

zone grossie intégrale ;

loupe ;

ligne grossie sur reste de l’écran non grossi ;

partage d’écran avec zone grossie – zone non grossie . [16]

Des examples sont :

Les possibilités offertes par les différentes solutions existantes, Zoomtext (AI2), Magic (Freedom Scientific), Lunar (Dolphin), sont sensiblement les mêmes sous environnement Windows. Une mention doit être faite pour Izoom (Issist) nouveau logiciel qui a été gratuit jusqu'à la version 1.1.Zoomtext version 9.1, Lunar version 8 sont compatibles avec Windows Vista. Des versions de démonstration sont utilisables ( cf. sites web mentionnés ).

Une possibilité incluse dans le système d'exploitation offre le grossisse-ment aux utilisateurs de machines Mac.[16]

L'ordinateur et les technologies lecteurs d'écran, est désormais partie intégrante de la vie des personnes aveugles. Pour les aveugles, l'ordinateur est une invention absolument fantastique. Et pour certains, c'est même leur passe-temps pour l'ajuster. L'informatique, et les technologies de lecture d'écran, font maintenant partie intégrante de la vie des personnes aveugles. Le programme JAWS est tellement plus qu'un simple lecteur d'écran, c'est une aide à la navigation.

JAWS (Job Access With Speech) est un lecteur d'écran (logiciel pour les déficients visuels), sous Windows, il est produit par la société Freedom Scientific en parteneriat avec Microsoft.

Il retranscrit par synthèse vocale et/ou sur un afficheur braille ce qui est affiché sur l'écran d'un ordinateur tant en termes de contenu que de structure et permet d’interagir avec le système d’exploitation et les logiciels d'application.

Ce logiciel a été conçu en 1989 par Ted Henter pour rendre accessible MS-DOS aux déficients visuels. Ce dernier fonda la société Henter-Joyce Corporation pour sa production et sa commercialisation. Par la suite, cette société s'unit avec les sociétés Blazie Engineering et ArkenStone pour former la société Freedom Scientific.

À partir de 1993, ce logiciel a été adapté à l'interface graphique de Windows sous le nom de JFW (Jaws For Windows).

En 2015, JAWS en est à sa version 17 tant en anglais  qu’en français . La traduction française est assurée par la société CECIAA. [17] »

Le logiciel de lecteur d'écran est conçu pour naviguer dans un site Web et lire le contenu Web à haute voix. Un lecteur d'écran utilise un moteur Text-To-Speech (TTS) pour traduire les informations à l'écran dans la parole, ce qui peut être entendu par des écouteurs ou des haut-parleurs. En plus des commentaires de la parole, les lecteurs d'écran sont également capables de fournir des informations en braille. Un périphérique matériel externe, connu sous le nom d'un écran Braille rafraîchissant, est nécessaire pour cela.

Fig.19.1. JAWS pour Windows

4. Tests d’utilisabilité et essai des produits innovants

de logiciels

Si nous n'utilisons pas les tests d’utilisabilité avec notre environnement d'intégration continue, nous passons à côté d'un aspect important. Il taut croire que l'IC sans les tests automatisés représente juste une petite amélioration pour les tâches de build lancées automatiquement. En résumé, si nous utilisons Jenkins sans tests automatisés, nous n'obtenons pas autant de valeur de notre infrastructure d'intégration continue que nous le devrions.

Un des principes de base de l'intégration continue est qu'un build doit être vérifiable. Nous devons être capable de déterminer objectivement si un build donné est prêt à passer à la prochaine étape du processus de construction, et le meilleur moyen de le faire est d'utiliser les tests automatisés. Sans une bonne automatisation des tests, il faut conserver de nombreux artefacts construits et les tester manuellement, ce qui est contraire à l'esprit de l'intégration continue.

Il y a plusieures façons d'intégrer les tests automatisés dans une application. Une des façons les plus efficaces pour écrire des tests de haute qualité est de les écrire en premier, en utilisant des techniques comme Test – Driven Development (TDD) ou Behavior – Driven Development (BDD). Dans cette approche, utilisée couramment dans des nombreux projets agiles, le but des tests unitaires est à la fois de clarifier la compréhension du comportement du code et d'écrire un test automatisé prouvant que le code implémente le comportement. En se concentrant sur le test du comportement attendu du code, plutôt que sur son implémentation, cela rend les tests plus compréhensibles et plus pertinents, et par conséquent aide à fournir une information plus pertinente.

Bien entendu, l'approche plus classique mettant en oeuvre des tests unitaires, quand le code a été implémenté, est aussi couramment utilisée, et est certainement mieux que pas de tests du tout.

Jenkins ne s'est pas limité aux tests unitaires, cependant. Il y a plusieurs autres types de tests automatisés qu’il faut envisager, selon la nature de l’application, parmi les tests d'intégration, les tests web, les tests fonctionnels, les tests de performance, les tests de charge et autres. Tous ceux-ci ont leur place dans un environnement de build automatisé.

Jenkins peut aussi être utilisé, en conjonction avec des techniques telles que Behavior – Driven Development et Acceptance Test Driven Development, comme un outil de communication destiné à la fois aux développeurs et aux autres intervenants d'un projet. Des frameworks BDD tels que easyb, fitnesse, jbehave, rspec, Cucumber, et beaucoup d'autres, essaient de présenter les tests d'acceptation de sorte que les testeurs, les Product Owners, et les utilisateurs puissent les comprendre. Avec de tels outils, Jenkins peut fournir des informations sur l'avancement d'un projet en termes métiers, et ainsi faciliter la communication entre développeurs et les non-développeurs à l'intérieur d'une équipe.

Pour des applications existantes avec peu ou pas de tests automatisés existants, cela peut être difficile et consommateur en temps de mettre en place des tests unitaires complets dans le code. De plus, les tests peuvent ne pas être très efficaces, parce qu'ils auront tendance à valider l'implémentation existante plutôt que vérifier le fonctionnel attendu. Une approche intéressante dans ces situations est d'écrire des tests fonctionnels automatisés (“ régression ”) qui simulent les manières les plus courantes d'utilisation de l'application. Par exemple, les outils de tests web automatisés tels que Selenium et WebDriver peuvent être utilisés efficacement pour tester les applications web à un haut niveau. Alors que cette approche n'est pas aussi complète que la combinaison de tests unitaires, d'intégration et d'acceptation de bonne qualité, c'est quand même une façon efficace et économique d'intégrer des tests de régression automatisés dans une application existante.

Le premier sujet à regarder est comment intégrer les tests unitaires dans Jenkins. Qu’il s’agit de l'approche Test – Driven Development, ou des tests unitaires avec une approche plus conventionnelle, ce seront probablement les premiers tests qu’il faut automatiser avec Jenkins.

Jenkins est excellent dans l'analyse des résultats des tests. Cependant, il faut écrire les tests appropriés et configurer le script de build pour qu'il les exécute automatiquement. Heureusement, intégrer des tests unitaires dans les builds automatisés est généralement aisé.

Il y a de nombreux outils de tests unitaires, avec la famille xUnit occupant une place prépondérante. Dans le monde Java, JUnit est le standard de facto, bien que TestNG soit aussi un framework de test unitaire populaire avec un certain nombre de fonctionnalités innovantes. Pour les applications C#, le framework NUnit propose des fonctionnalités similaires à celles fournies par JUnit, comme le fait Test::Unit pour Ruby. Pour C/C++, il y a CppUnit, et les développeurs PHP peuvent utiliser PHPUnit. Et cette liste n'est pas exhaustive !

Ces outils peuvent aussi être utilisés pour les tests d'intégration, les tests fonctionnels, les tests web et ainsi de suite. De nombreux outils de tests web, comme Selenium, WebDriver, et Watir, génèrent des rapports compatibles xUnit. Les outils Behaviour-Driven Development et de tests d'acceptation automatisés comme easyb, Fitnesse, Concordion sont aussi orientés xUnit. Afin d'obtenir un compte-rendu plus rapide, les tests devront être groupés dans des catégories bien définies, en commençant par les rapides tests unitaires, ensuite viendront les tests d'intégration, pour finir par exécuter les tests fonctionnels et web, plus longs.

Une discussion détaillée sur la façon d'automatiser les tests est en dehors du sujet de ce recherche. [20]

4.1. Introduction aux tests logiciels

Un logiciel n’est pas seulement un code, mais il y a plusieurs caractéristiques :

une gestion de projet;

une spécification (ex: fonctionnalités, constraintes, interface);

une conception (ex:fonctionnelle, architecturale);

des besoins;

un code source;

un exécutable;

des tests.

Pour le logiciel, les principales caractéristiques sont :

des besoins qui sont exprimées par les clients ;

une gestion de projet avec -une cycle de vie(qui peut être soit classique soit agile)

-les outils et l’environnement de développement

une spécification ;

une conception (par exemple : globale, architecturale, détailliée);

un code ;

un produit ;

des tests.

La définition possible pour qu’est-ce que signifie tester un logiciel peut être exprimée comme ça : ,, Processus d’analyse d’un programme avec l’intention de détecter des anomalies dans le but de le valider.’’[1]

4.2. Test du logiciel

La séparation des préoccupations est un des concepts fondamentaux du développement logiciel. Lorsqu'on écrit des tests il faut respecter un principe : un test doit répondre à une préoccupation précise. Il est important lors de l'écriture d'un test de savoir :

quel est le périmètre du (sous-)système testé,

à quel niveau d'abstraction se place-t-on. Si l'application est divisée en couches (architecture n-tiers), avec l'API de quelle couche le test est écrit,

quelles sont les suppositions (on ne re-teste pas toute l'application à chaque fois). Si on teste une couche donnée, la plupart du temps, on suppose que les couches inférieures fonctionnent (elle-mêmes seront testées dans d'autres tests).

Dans la documentation du test ou de la classe de test toutes ces informations doivent

être précisées. La classification ci-dessous définit quelques critères qui peuvent aider à

caractériser un test et faire le tri. [18]

Tests « boîtes blanches » et tests « boîtes noires »

Selon la visibilité que le développeur qui écrit les tests a sur le code testé on peut parler de tests « boîtes blanches » ou de tests « boîtes noires ».

Le test boîte blanche : le testeur, pour écrire son test, tient compte de la structure interne du code testé et de l'implémentation. Le testeur peut facilement visualiser les différentes branches et les cas qui provoquent des erreurs avec la connaissance de l'implémentation.

Le test peut faire appel éventuellement à des méthodes protégées, voire privées.

Le test boîte noire : le testeur s'appuie sur la partie publique de l'élément testé pour écrire les tests ne tenant pas compte de l'implémentation.

Il est plus facile d'atteindre une bonne couverture avec les tests boîte blanche étant donné que l'accès au code testé permet de voir les différentes branches et les cas d'erreurs.

Une fois écrits l'avantage des tests en boite noire est que l'implémentation de la classe testée peut changer sans nécessiter avoir à mettre à jour le test.

Donc, en Java, un test boîte noire écrit faisant appel aux méthodes d'une interface permet de tester toutes les classes qui réalisent cette interface.
Les tests fonctionnels et les tests non-fonctionnels : il s’agit de tests fonctionnels quand nous vérifions qu'une classe permet bien de remplir avec succès l'objectif fixé par un cas d'utilisation donné.

Un test fonctionnel permet de répondre à la question « est-ce que le code permet de faire ça ? » ou « est-ce que cette fonctionnalité attendue est bien fonctionnelle ? ».

Par contre, les tests non-fonctionnels vérifient des propriétés qui ne sont pas

directement liées à une utilisation du code. Il faut vérifier des caractéristiques telle que

la sécurité ou la capacité à monter en charge.

Les tests non-fonctionnels permettent plutôt de répondre à des questions telles que « est-ce que cette classe peut être utilisée par 1000 threads en même temps sans erreur ? ».

Les tests unitaires, les tests d'intégration et les tests des systèmes : si un test unitaire vise à tester une unité isolée pendant le test, un test d'intégration est un test qui met en œuvre plusieurs unités ou composants pour vérifier qu'ils fonctionnent bien ensemble. Le test système peut être considéré comme un test d'intégration globale : il vérifie le fonctionnement de la totalité du système assemblé, lorsque tous les composants qui interviendront sont en place. [18]

La fabrication d’un logiciel présente la particularité de ne pas être sujet aux erreurs de fabrication parce qu’elle se limite en général à une simple copie. Par opposition la fabrication d’un logiciel souffre très souvent d’erreurs de conception : les programmes développés et installés ne font pas toujours ce qui était attendu, ne correspondent pas toujours aux besoins. Plus ces besoins sont complexes et de nature variée, plus le développement et la conception sont propices aux erreurs. Appelées modèles, ces besoins sont exprimés sous forme de spécifications. Voici un exemple – élémentaire – de spécifications: « le système lit des nombres et fait leur somme; quand il lit un zéro, il imprime la somme et s’arrête. Il ne doit jamais provoquer de débordement arithmétique, mais s’arrêter avant. » La première phrase correspond à ce qu’on appelle une exigence fonctionnelle (elle énonce ce que doit faire le système). La deuxième phrase est une exigence de robustesse. On pourrait aussi avoir des exigences de performance, ou de facilité d’emploi, de bonne approximation du résultat, ou d’autres. Le test fait partie des méthodes de vérification qu’un système satisfait des spécifications. C’est une méthode dite « dynamique » qui consiste à: – choisir judicieusement un sous-ensemble fini des entrées possibles du système. Ce choix est basé sur des critères de sélection sur lesquels on va revenir ; – assurer l’exécution des tests retenus. Cette activité nécessite souvent l’utilisation ou le développement d’un environnement de test et l’instrumentation du programme testé, par exemple quand le logiciel est destiné à être intégré à un système physique critique (avion ou satellite, centrale, chaîne de production, …). – dépouiller les résultats obtenus. Cette activité de décision du succès ou de l’échec des tests est basée sur les spécifications; elle pose le difficile problème dit « de l’oracle », sur lequel on revient plus loin. – d’évaluer la qualité de l’ensemble des tests effectués, qui est un des éléments pour décider de l’arrêt du test. Ces activités posent de nombreux problèmes. Le point dur est qu’il est difficile de contrôler et d’observer l’exécution de certains logiciels, et même de la plupart d’entre eux. Mettre un logiciel en situation d’exécuter un certain test, et observer ensuite ce qui s’est passé, ceci sans biaiser l’expérience, est loin d’être évident en général, 2/6 Gaudel. Un autre point dur est le problème de l’oracle mentionné plus haut. Il se pose quand on ne connaît pas le résultat attendu dans tous les cas (et c’est d’ailleurs pour cela qu’on a développé le programme sous test). Un exemple, parmi beaucoup d’autres, est le calcul d’un résultat numérique à ε près quand on ne connaît pas le résultat exact. Comment tester que la fourchette d’approximation est bien respectée? [19]

4.3. Les types de tests

Le test est un activité créatrice:

Imaginer des scénarios plausibles pour mettre un logiciel en défaut

Imaginer et construire des bancs de tests permettant de vérifier les fonctionnalités et les contraintes.

Il y a la nécessité d’avoir plusieurs compétences :

-automatisme ;

-électronique ;

-réseau, etc.

Par exemple : Vous devez tester le logiciel pour le déficience visuelle, mais comment testez- vous ça ?

-prendre le véritable capteur d’image et le son et les monter sur un moteur que l’on peut piloter à plusieurs vitesses d’un corps sur la personne qui va tester.

– simuler le signal ou les signaux du capteur avec un autre logiciel.

Il existe quelques principes de base pour tester un logiciel :

Principe 1 : Un programmeur ne doit pas tester ses propres programmes. Tout simplement pour ne pas être en même temps juge et partie.

Principe 2 : Ne pas effectuer des tests avec l’hypothèse de base qu’aucune erreur n’aurait pas été trouvée.

Principe 3 : La définition des sorties ou des résultats attendus doit être effectuée avant l’exécution d’un test. Ceci est une erreur fréquente du test. Ce n’est pas lorsque l’on effectue le test d’une procédure qu’il faut se poser la question de la validité des résultats, car il y a des chances non négligeables de prendre un résultat erroné mais semblant cohérent pour un résultat correct.

Principe 4 : Inspecter minutieusement les traces de chaque test. Pour une raison similaire au principe 2, il faut séparer l’action et l’analyse des résultats.

Principe 5 : Les jeux de tests doivent être écrits pour des entrées invalides ou incohérentes aussi bien que pour des entrées valides. Simplement afin de découvrir les anomalies.

Principe 6 : Vérifier un logiciel pour détecter qu’il ne réalise pas ce qu’il est supposé à faire, n’est que la moitié du travail. Il faut aussi vérifier ce que fait le programme lorsqu’il n’est pas supposé le faire. Afin d’évaluer la robustesse du logiciel.

Conclusions: Le test des logiciels est un métier à part entière, contrairement au développement, où les développeurs sont très compartimentés. (spécialiste IHM, réseaux, algorithmie, etc.) [10]

Les différentes méthodes pour tester un logiciel sont :

test boîte noire-blanche ;

prédiction d’erreur ;

tests automatiques .

Quelque type des tests : fonctionnels, non- fonctionnelles, structurels.

Pour les tests fonctionnels nous avons liés à la qualité, à la performance qui sont conforme à la spécification. L’objectif pour des test fonctionnels est que les tests sont basés sur les spécifications, qui donnent le comportement attendu.

Pour des types des tests non-fonctionnels il y a la compatibilité, au stress, à la documentation.

Par opposition, les tests non-fonctionnels vérifient des propriétés qui ne sont pas directement liées à une utilisation du code. Il s'agit de vérifier des caractéristiques telle que la sécurité ou la capacité à monter en charge. Les tests non-fonctionnels permettent plutôt de répondre à des questions telles que « est-ce que cette classe peut être utilisée par 1000 threads en même temps sans erreur ? » [2].

Tests structurels: le codage est correct ou fautes d’implémentation, ou fonctions non prévues, avec l’objectif suivante: détecter les fautes d’implémentation comme la détection de cas de « plantage » ou le logiciel n’en fait pas trop.

Pour le niveau architectural et le code nous analysons des flots de contrôle, de données et

les condition logiques.

Fig.4. (Introduction aux tests logiciels-F.X.Fornari et P.Manoury)

4.4. Les différentes étapes du tests du logiciels

Nous avons plusieurs différentes étapes du tests du logiciels :

Plan Qualité du Logiciel :

-l’organisation mise en place ;

-les responsabilités et les interfaces des personnes intervenant dans le processus de test ;

– les objectifs de tests fixer pour chaque niveaux de tests du logiciel: z;

-Tests Unitaires (TU) ;

-Tests d’Intégration (TI) ;

-Tests de Validation (TV) .

Pour chaque phase de définition du logiciel nous avons :

Plan de Tests de Validation (PTV) ;

Plan de Tests D’Intégration (PTI) ;

Plan de Tests Unitaires (PTU) ;

Dossier de Spécifications du Logiciel (DSL) ;

Dossier de Conception Préliminaire (DCP) ;

Dossier de Conception Détaliée (DCD). [13]

Fig.5. (Types des tests-F.X.Fornari et P. Manoury)

Nous avons plusieurs différentes niveaux :

Tests de recette qui sont des tests de réception du logiciel pour le client final ;

Tests intégration système avec des tests de l’intégration du logiciel ;

Tests système : test d’acceptation du logiciel avant livraison ;

Tests d’intégration : avec des différentes composants ;

Tests unitaires: sont des tests élémentaires avec des composants logiciels (par exemple: avec un module ou avec une fonction) ;

Tests de non-régression.

Pour la planification ces différentes niveaux des tests sont planifiés. Pour ça, dans le même temps nous avons développé comme ça : soit incrémentation soit en pipeline.

Fig.5.1. Le cycle de vie du logiciel

4.5. Les plus importantes types de tests

Pour ceux qui ont une faible vision, naviguer et voir ce qui se trouve sur l'écran peut être un défi, tout comme le fait de taper et d'utiliser le clavier. Cependant, il existe de nombreux outils et logiciels informatiques de faible vision qui peuvent améliorer la capacité à voir ce qui est sur l'écran, permettre à la voix de donner des commandes par ordinateur ou lire tout texte en toute sécurité.

Les nouvelles technologies de l’information et de la communication ont profondément modifié notre quotidien. C’est aussi vrai pour celui des personnes handicapées, et particulièrement pour les déficients visuels et auditifs. Les outils informatiques et électronique permettent de palier à certains problèmes.

Les catégories des applications utilisées/test du logiciel pour des personnes avec la déficience visuelle sont :

Outils libres/gratuits : sont toutes les systèmes d’exploitation qui sont utile pour cette catégorie :

Fig.6. ( Logiciels pour l’accessibilité -Technologie, Handicap, Accessibilité )

Outils collaboratifs : ne fonctionnent pas de façon autonome mais relient plusieurs personnes pour fournir un service ou une aide.

Fig.8. ( Logiciels pour l’accessibilité -Technologie, Handicap, Accessibilité )

Outils inclus dans les systèmes : ces outils sont fournis par les éditeurs des systèmes d’exploitations et en sont donc complètement dépendants.

Fig.9. ( Logiciels pour l’accessibilité -Technologie, Handicap, Accessibilité )

L’informatique fait réellement partie de notre quotidien et est devenue incontournable dans le secteur professionnel. Aujourd’hui, il est techniquement tout à fait possible d’adapter cet outil pour des personnes en situation de handicap visuel, c’est-à-dire aveugles ou malvoyantes.

4.6. Tests d’utilisabilité

La méthode la plus efficace pour évaluer un logiciel est representeé par le test d’utilisabilité. Le test nous permet d’observer directement l’utilisateur en train de se servir de l’application ou du logiciel et d’identifier concrètement les problèmes. L’utilisabilité peut être mesurée en calculant la performance de l’utilisateur.

Les avantages des tests d’utilisabilité :

l’utilisateur est observé dans un contexte réel d’utilisation ;

l’utilisateur peut raconter les problèmes identifiés lorsqu’il se sert du logiciel ;

des difficultés freinant l’utilisateur dans sa tâche sont identifiés objectivement ;

pendant les tests des mesures peuvent être effectuées.

Des inconvénients des tests d’utilisabilité :

Les tests d’utilisabilité couvrent difficilement l’ensemble des fonctionnalités du logiciel.

4.7. Le mode opératoire

Le test d’utilisabilité sera mené dans le contexte le plus proche de l’utilisation réelle.

L’utilisateur se familiarisera aux principales tâches pour lesquelles le logiciel a été conçu.

Les tests d’utilisabilité sont réalisés sur une version commerciale du produit lorsque l’évaluation porte sur un logiciel existant déjà.

Le test est conduit sur un prototype vertical en phase de conception.

Bien entendu l’observateur donne à l’utilisateur des consignes qui vont l’aider à effectuer des tâches typiques du logiciel ou du site Web.

Bien sûr, l’observateur n’aidera pas l’utilisateur, sauf en cas d’impasse.

Il est préférable de laisser l’utilisateur « se débrouiller » seul face au logiciel, afin d’identifier clairement les problèmes.

L’observateur va noter tout événement qui montre une difficulté d’utilisation du logiciel, tous les erreurs commises, tous les incompréhensions, tous les impasses.

Une fois le test terminé, afin de mieux comprendre les causes de différentes problèmes et de différentes observations feront l’objet d’une « analyse à chaud » avec l’utilisateur.

Pendant ces discussions naissent généralement des solutions originales.

En phase de conception, le test d’utilisabilité permet de valider des hypo-thèses sur le comportement de l’utilisateur, par exemple : la façon dont il navigue dans l’interface, les informations qu’il recherche ou les commandes dont il se sert le plus souvent.

4.8. Mesurer l’utilisabilité

Pour mesurer l’utilisabilité d’une manière objective il faut calculer si l’utilisateur a-t-il pu accomplir correctement la tâche et dans le temps voulu. Donc, il faut mesurer la performance de l’utilisateur par rapport aux ressources consommées.

Plus précisément, la norme ISO 9241-11 définit l’utilisabilité de la manière suivante : « Un système est utilisable lorsqu’il permet à l’utilisateur de réaliser sa tâche avec efficacité, efficience et satisfaction dans le contexte d’utilisation spécifié ».

Conformément à la définition donnée ci-dessus pour mesurer l’utilisabilité d’un logiciel celle-ci est acceptée lorsque l’utilisateur peut réaliser sa tâche (efficacité), qu’il consomme un minimum de ressources pour le faire (efficience) et que le système est agréable à utiliser (satisfaction).

Pour mesurer l’utilisabilité des tests il faut effectuer 3 types de mesures :

L’efficacité : vérifier que les objectifs visés par l’utilisateur sont atteints.

L’efficience : mesurer les ressources nécessaires pour atteindre ces objectifs, par exemple le temps mis par l’utilisateur pour réaliser la tâche.

La satisfaction : déterminer si le système est agréable à utiliser, par exemple en décomptant le nombre de remarques négatives émises par les utilisateurs lors du test.

Ces 3 caractéristiques sont définissants pour la norme d’utilisabilité.

Cependant, il peut être utile, selon l’application, d’évaluer d’autres aspects :

La sécurité : le nombre d’erreurs commises par l’utilisateur et rapidité de la correction des erreurs.

La facilité d’apprentissage : la compréhension correcte et l’assimilation rapide du mode de fonctionnement.

Les variables d’utilisabilité sont mesurées pour chaque consigne et l’équipe du projet peut apprécier objectivement la valeur d’utilisabilité du logiciel. Pour quantifier les améliorations d’un prototype à l’autre il faut mesurer les paramètres à chaque itération. Pour normaliser les tests d’utilisabilité, L’Institut Américain des Normes propose à effectuer des activités de normalisation.

4.9. Conseil

Au cours du test il est possible que l’utilisateur n’ose pas dire qu’il ne réussit pas à se servir du logiciel ou du site Web. Donc il peut rendre caduques les résultats du test parce qu’il préfère cacher ses difficultés. Dans ce cas l’utilisateur doit avoir confiance en lui, même au début de la séance, se souvenant que :

le test ne vise pas à évaluer l’utilisateur, mais le logiciel.

l’utilisateur s'en sert mal du logiciel parce qu’il a été mal conçu.

l’objectif du test est d’identifier les problèmes d’utilisabilité de l’application et non de mesurer la capacité de l’utilisateur à se servir du logiciel ou du site Web.

Il est bien de définir un objectif précis pendant chaque séance de test. Les résultats du test sont aisément exploitables quand la consigne est bien choisie et elle répond à un objectif précis en terme de tâche d’utilisateur. Sinon le résultat sera source d’interprétations multiples et le logiciel ne sera pas révisée. La représentativité des résultats sera garantie par la bonne adéquation entre l’objectif de la séance, les utilisateurs impliqués et les consignes. L’élaboration du protocole de test exige une attention toute particulière. Il est aussi utile de concevoir une phase de « pré-test » avec les membres de l’équipe projet.

4.10. Choisir un panel utilisateur représentatif :

L’application évaluée vise les utilisateurs qui recouriront effectivement au logiciel, sinon les résultats ne seront pas pertinents

Souvent il y a des « abonnés aux expérimentations » participant à de nombreux tests, présence qui témoigne de leur motivation. Ils sont, la plupart des sujets imaginatifs, mais sont-ils vraiment les représentatifs des utilisateurs ? Il n’est pas possible que leurs fréquentes participations aux expérimentations aie des effets de distorsion par leur appréhension du logiciel ?

Pour des applications grand public, il est meilleur de changer fréquemment la composition du panel utilisateur à de nombreux tests. Leur présence témoigne de leur motivation.

27.M. PhD Richard J. Nielsen considère que des tests menés avec 5 utilisateurs permettent de lever au moins 80 % des problèmes d’utilisabilité, un nombre plus grand d’utilisateurs ne contribuera du tout à trouver plus de problèmes.

La pertinence des résultats n’augmente pas si on fait tester avec un plus grand nombre d’utilisateurs, mais seulement agrandit le coût du test. Plutôt que de mener un test avec 15 utilisateurs, J. Nielsen considère qu’il est préférable de faire 3 tests avec 5 utilisateurs, en améliorant l’interface à chaque itération.

Quand même, lorsque l’application vise des différents types d’utilisateurs, il est important de tester l’utilisabilité auprès des différents groupes.

5. Études de cas

5.1. Les tests des utilisabilités avec des utilisateurs malvoyants

accorder aux développeurs d'outils de production et aux rédacteurs de découvrir comment les personnes handicapées interagissent avec le site, quelles difficultés anticipent-elles, quelles sont leurs stratégies et leurs démarches pour les résoudre;

encourager les développeurs, les rédacteurs et les responsables de manifester les conséquences concrètes de leur investisse-ment dans l'accessibilité.

Ces tests utilisateurs sont au cœur de certaines procédures de labellisation, telles que celle du label suisse « Accès pour Tous ».

Cependant, de tels tests les utilisateurs seuls ne peuvent pas déterminer le niveau d'accessibilité effectif d'un site : cette estimation exige en effet une évaluation systématique en ce qui concerne les directives WCAGW3C 31.

5.2. Tests d’utilisabilité dans le projet Sound of Vision

Évaluer le degré d'accessibilité d'un site Web nécessite davantage que peut fournir un outil automatisé.

La compréhension approfondie des techniques Web, des outils de validation, des directives d'accessibilité, des technologies d'assistance et des agents utilisateurs, les stratégies auxquelles recourent les personnes handicapées dans leur usage du Web mènent à l'évaluation d'un site.

Compte tenu des capacités limitées de l'évaluation automatisée et du coût croissant que représenterait l'évaluation experte menée à grande échelle, le passage à l'industrialisation du Web exige le recours à une approche mixte, tirant parti de la rapidité des outils automatisés et de la pertinence du jugement humain : une approche semi-automatisée de l'évaluation d'accessibilité autoriserait ce compromis entre coût et efficacité.

5.3. Politiques d'accessibilité, suivi et gestion du risque

5.3.1. La définition d'une politique d'accessibilité selon la WAI

Selon la WAI, une politique d'accessibilité se définit par :

un niveau de conformité A, AA ou AAA attendu pour les contenus d'une part, et pour les outils de conception des contenus d'autre part ;

un champ d'application dans ces contenus ( pages déjà existantes, nouvelles pages, contenus produits par l'entité, contenus fournis par un tiers, etc.) ;

un calendrier de déploiement, qui peut être unique ( le site est conforme au niveau A à telle date), progressif ( passages successifs par les niveau A puis AA et éventuellement AAA) ou sélectif ( priorité accordée à certaines parties du site ). Il peut également s'appliquer à l'intégration de l'accessibilité dans les outils de conception et à la mise en place de ressources internes de formation et de contrôle ;

un processus de contrôle, de réclamation sur la conformité et de suivi du niveau d'accessibilité requis ;

des mécanismes de révision et de mise à jour de la politique d'accessibilité en fonction de l'évolution des normes de référence.

5.3.2. L’approche WAI

Cette approche est centrée sur une obligation de résultat strictement définie par le respect d'un niveau d'accessibilité donné. Elle était justifiée à une époque où :

d'une part la production de contenu était encore largement dominée par un modèle artisanal alors qu'elle est maintenant passée à un stade (pré-)industriel;

d'autre part la démocratisation massive de l'accès à la production de contenu s'accompagnait de l'arrivée de nombreux développeurs débutants sans connaissance en accessibilité auprès desquels il était nécessaire de faire passer des notions de base, et qu'il fallait sensibiliser par des messages mettant clairement en évidence les lacunes de leurs productions.

Elle rencontre cependant aujourd'hui ses limites sur le plan des difficultés de mise en œuvre et d'absence de gestion du risque dans le cadre d'une démarche qualité à l'échelle d'importants parcs de sites.

5.4. Étude de cas pour le projet « Sound of Vision »

« Sound of Vision » met en œuvre et valide un système matériel et logiciel non invasif original pour aider les malvoyants en créant et transmettant une représentation auditive du milieu environnant. Cette représentation sera créée, mise à jour et livrée à un aveugle en continu et en temps réel. Ce système aidera les personnes malvoyantes dans tout type d'environnement (intérieur / extérieur), sans avoir besoin d'étiquettes / capteurs prédéfinis situés dans les environs.

La recherche présentée a été réalisée dans le cadre du projet « Sound of Vision », visant à mieux comprendre les défis auxquels sont confrontés les personnes ayant une déficience visuelle, comment ils naviguent dans des environnements intérieurs inconnus.

Le processus d'aider les personnes ayant une déficience visuelle proposé par « Sound of Vision » consiste en une série d'étapes répétitives.

La première étape utilise le matériel et les logiciels pour générer une représentation 3D de l'environnement. Dans la deuxième étape, les objets sont identifiés dans le modèle 3D et les informations sont ensuite transformées en sources de sons 3D. Dans la dernière étape, toutes les sources sonores 3D sont combinées et jouées avec l'utilisateur, en utilisant des matériels spécialisés et des algorithmes.

« Sound of Vision » donnera une attention exceptionnelle à la formation. L'approche de « Sound of Vision » est une formation progressive, efficace, sûre et rentable basée sur des environnements virtuels de complexité croissante progressive. Des techniques de jeux sérieux seront utilisées pour assurer à la fois la motivation et l'immersion des utilisateurs, en maximisant les effets du processus de formation.

Fig.20. SoV- Runtime (soundofvision.net/owncloud)

Fig.21. Enregistrement de l'utilisateur (soundofvision.net/owncloud)

Les équipes développeront le système proposé, testeront le prototype et établiront des protocoles de formation, en commercialisant le système comme un produit final intuitif et accessible. Très important, « Sound of Vision » intégrera directement et de manière participative le groupe cible dans le développement du système : fournir des exigences initiales, en tant que co-concepteurs et pour des essais expérimentaux et un raffinage des prototypes.

« Sound of Vision » est un concept qui va au-delà de l'état de l'art des systèmes de la substitution sensorielle visuelle. Il a le potentiel de devenir un produit commercial abordable qui va réellement aider les personnes aveugles. Ce système peut avoir un impact social impressionnant, l'amélioration de la vie des personnes aveugles, et aussi de leurs gardiens, créant ainsi le bien-être, l'inclusion sociale et les soins de santé efficaces et rentables.

L'amélioration du prototype initial est faite en utilisant les commentaires acquis auprès du partenaire médical, des spécialistes de l'analyse dynamique du cerveau, des malvoyants et des spécialistes de leur formation (indicateurs de réussite: solutions satisfaisantes pour les défis technologiques et conceptuels, validation des solutions par expérience, développement du prototype avancé dans le délai)

Le développement et l'intégration des modules logiciels sont realisés pour les fonctionnalités supplémentaires comme indicateurs de succès : (solutions satis-faisantes aux défis technologiques et conceptuels, validation expérimentale des solutions, intégration dans le prototype avancé dans les délais)

Le projet propose de tester le prototype avancé pour trouver les indicateurs de succès: le test identifie les éventuelles anomalies du prototype avancé lié à URD, aussi il fournit des informations pertinentes pour affiner les solutions techniques et conceptuelles.

Les essais successifs aident le développement d'un protocole de formation des utilisateurs et précisent les indicateurs de réussite : aussi le protocole de forma-tion permet aux utilisateurs d'exploiter pleinement le système.

Le projet « Sound of Vision » propose la dissemination des concepts et des résultats – brevets, ateliers, articles scientifiques, site web avec les indicateurs de réussite : demande de brevet en conformité avec les formalités et exigences, participation de tous les membres du projet aux ateliers, la présentation réussie des articles écrits, les publications ou les conférences pertinentes. Aussi il existe un site mis à jour avec tous les résultats pertinents du projet et il est promu au public pertinent.

Fig.22. Interface graphique (soundofvision.net/owncloud )

Avec un taux d'acceptation de 17%, ICMI se concentre sur les fondements théoriques et empiriques, sur les technologies et les composants combinés des techniques de traitement multimodal qui définissent le champ d'analyse des interactions multi-modale, sur la conception d'interface et sur le développement du système.

L'électroencéphalogramme du cerveau (EEG) et le corps des signaux physiologiques ( tels que EDA, la fréquence cardiaque et d'autres ) ont été enregistrés des participants alors qu'ils marchaient dans un environnement intérieur complexe au moyen de l'état de l'art par appareils portables non-invasive, dans un environnement intérieur complexe grâce à des dispositifs non invasifs à la fine pointe de la technologie, dans le but d'identifier les biomarqueurs cognitifs et émotionnels liés au stress ou à la confusion.

L'étude a été réalisée en collaboration avec l'orientation expérimentés et en mobilité de l'Institut national pour les aveugles, les malvoyants et sourds-aveugles de l'Islande.

L'étude qui vise à comprendre la charge cognitive et le stress émotionnel des utilisateurs lorsqu'ils sont exposés aux sons et à la rétroaction haptique générés par les modèles de sonification « sonore de vision » au moyen de l'électroen-céphalogramme (EEG) et de l'activité électrodermique (EDA).

Le projet « Sound of Vision » produira la liste suivante des résultats concrets :

les protocoles de formation des utilisateurs, y compris le jeu sérieux (Mode de formation de l'appareil), le protocole de formation sur les environnements réels supplémentaires, ainsi que des instructions détaillées à suivre par les patients et les gardiens lors de l'utilisation du système.

une bibliothèque logicielle réutilisable et de sonification : il mettra en œuvre les méthodes de sonification avancées développées par le projet et offrir une API (Application Programming Interface) permettant une réutilisation indépendante dans les différentes recherches et des projets.

le jeu sérieux de formation réutilisable : le jeu sera mis en œuvre de manière modulaire et portable, afin qu'il puisse être réutilisé dans différentes recherches et projets (pour la formation avec des appareils d'assistance ou à des fins de divertissement) dédiés aux malvoyants.

une base de données avec les tests effectués, les mesures BCI et les commen-taires des utilisateurs, y compris 4 composants importants pour chaque test effectué : profil d'utilisateur malvoyant (y compris les données anonymes), commentaires des utilisateurs concernant la recherche de performance et d'utilisabilité, vidéo du test effectué (soit en réel ou les environnements virtuels) et les mesures BCI associées des activations corticales. Cette base de données constituera une source importante d'informations pouvant déboucher sur d'autres recherches, par d'autres équipes de recherche, notamment en matière de sonification mais, en plus, de dispositifs d'assistance et de réadaptation et de neurosciences en général.

Un outil logiciel sera également fourni qui permettra l'examen synchronisé de la vidéo et des mesures.

La base de données mise à jour automatiquement avec les données d'utilisation anonymes et les commentaires des utilisateurs : le composant du rapport automatisé, intégré dans la fonctionnalité des périphériques permettra de rapports automatisés des données d'utilisation anonymisées et les commentaires de l'utilisateur, même en dehors des environnements de test dédiés du projet, et même après l'achèvement du projet.

La déclaration sera facultative pour chaque utilisateur, en fonction de l'acceptation personnelle. Les automatisés rapportés et les données seront stockées dans une base de données importante et complète qui peuvent fournir un témoignage unique sur le très grand groupe social de malvoyants, (ayant une déficience visuelle,) qui peuvent se traduire par des connaissances avancées sur le comportement de l'individu lié à l'utilisation de « Sound of Vision » comme outil TIC d'assistance, le bien-être personnel et la gestion des maladies, la prévention et les interventions de santé comportementale personnalisés. La base de données sera lancée avant la fin du projet et continuera à être mis à jour après, basé sur l'utilisation du système.

Afin de développer le protocole de formation des utilisateurs, les facteurs suivants seront pris en compte : l'utilisation pratique du système, les processus neurologiques et psychologiques impliqués dans l'évolution d'un nouveau sens sensoriel par la neuroplastique et l'ergonomie.

Assurer la facilité d'utilisation et l'efficacité du protocole de la formation. Cette tâche nécessitera une consommation minimale des ressources de l'utilisateur (temps, effort intellectuel) afin d'atteindre l'objectif visé. Les formations sérieuses et les protocoles de formation de la vie réelle seront développés en fonction d’un prototype avancé. Afin d'aider les utilisateurs à utiliser efficacement le dispositif

« SoV » innovant et, par conséquent, à améliorer leur qualité de vie, une procédure de formation a été développée dans le document actuel.

Les aspects suivants sont décrits plus en détail :

• le type et le nombre d'utilisateurs qui participeront aux sessions de formation ;
• l'approche progressive de la formation, à trois niveaux: dans l'environnement virtuel, dans le monde réel, à l'intérieur et dans le monde réel, à l'extérieur.

Plusieurs scènes sont dans un environnement virtuel : scènes à un seul attribut (dans lesquelles l'examinateur perçoit, en mode audio et haptique, une seule caractéristique d'un objet), des scènes statiques (dans lesquelles le test-taker perçoit, en mode audio et haptique, plusieurs caractéristiques d'un objet), scènes de navigation basiques et avancées (dans lesquelles le preneur de test doit trouver ou éviter les obstacles).

Trois cours de pré-formation et d'autres trois leçons de formation, avec un nombre croissant d'objets, sont proposés dans des contextes réels. Les lecteurs seront suivis par les utilisateurs avec la canne blanche, à la fois canne blanche et « SoV » et seulement avec le dispositif « SoV ». Des instructions claires sont données pour l'utilisateur, ainsi que pour le testeur. Des modèles pour les questionnaires de rétroaction des utilisateurs sont également fournis.

Fig.23. Cours de formation (soundofvision.net/owncloud )

Le but principal de la procédure de formation est de proposer aux utilisateurs une manière facile de maîtriser le dispositif « SoV », mais sa mise en œuvre fournira également des résultats utiles concernant les avantages et les limitations apportés par « SoV » par rapport à d'autres dispositifs bien connus (canne blanche).

Le paquet de travail nr. 4 contient un protocole pour la formation et le test du Prototype avancé du « Son de Vision » avec cinq utilisateurs malvoyants, chez chaque partenaire avec des installations de test. Pour chaque partenaire, deux utilisateurs font partie du groupe de discussion (ce qui signifie qu'ils ont déjà entrepris une formation approfondie au cours des mois précédents) et que trois utilisateurs sont des débutants recrutés uniquement pour cette étape des tests. Ce dernier se familiarisera avec les modèles audio et haptiques pour une période de deux jours, en sessions de formation courtes.

L'approche en formation se fera par étapes progressivement compliquées. Tout d'abord, l'utilisateur s'entraine dans un environnement virtuel avec des exercices similaires aux situations du monde réel. La deuxième étape de la formation se fera à l'intérieur dans un environnement sécurisé avec des obstacles de boîtes en papier. Les utilisateurs apprennent à utiliser le périphérique « SoV » et à s'en servir lorsqu’ils se déplacent dans la pièce. Lorsque les utilisateurs se sentent à l'aise avec le dispositif « SoV », ils se déplacent à la formation dans le monde réel extérieur.

La formation dans le monde réel à l'intérieur et à l'extérieur sera basée sur les méthodes de formation de l'orientation et de la mobilité. Tous les utilisateurs VIP qui vont suivre une formation, ont déjà suivi une formation à l'utilisation de la canne blanche avant « SoV » et la plupart d'entre eux l'utilisent déjà dans leur vie quotidienne comme un dispositif d'assistance. Par conséquent, ils n'ont pas besoin d'aucune introduction à la canne blanche. Les yeux bandés ils obtiendront des instructions sur la façon d'utiliser la canne blanche avant de pouvoir passer par la même procédure.

Lorsque les utilisateurs viennent pour la première fois, ils / elles auront une vaste introduction au projet et les fonctions du périphérique « SoV ».

L'environnement de formation virtuel ainsi que les tâches de formation virtuelles seront les mêmes que lors des tests virtuels et seront également menés progressivement.

Les participants s'entraînent pendant 2-3 heures, trois fois par semaine pendant deux semaines. La formation est observée et les commentaires sont écrits. Après chaque session, les participants donnent également des commentaires sur le matériel utilisé et des commentaires globaux sur les modèles audio et haptiques et VTE.

Après une semaine de formation, le participant et le superviseur de la formation évaluent ensemble l'état d'avancement de la formation et la procédure de la deuxième semaine de formation. Si l'évaluation montre de bons progrès dans la formation, le plan de formation sera modifié et des décisions seront prises sur le nombre de sessions nécessaires. Il faut garder à l'esprit que les participants peuvent exiger un différent avec tous les participants qu'ils n'auront pas tous le même nombre de sessions et qu'il est important d'ajuster le temps selon le participant. Ce faisant, la formation sera plus intéressante et stimulante pour le participant. En outre, il est important que les participants sachent qu'ils contrôlent la formation et qu'ils évaluent eux-mêmes les progrès.

Les participants commencent d'abord par des tâches qui font référence à une propriété unique d'un objet alors que les autres propriétés ne changent pas (appelées « Attributs uniques »). Ici, ils ont montré des caractéristiques variables d'un objet et doivent répondre à ceux qu'ils perçoivent lors de l'interprétation des modèles.

Pour toutes les tâches, ils peuvent d'abord apprendre les modèles en manipulant eux-mêmes les propriétés de l'objet. Par la suite, ils peuvent se tester en répondant aux questions sur les propriétés données et en obtenant des commentaires. Enfin, dans le test, ils ne reçoivent aucun commentaire.

Fig.24. L’accomplissement des tâches (soundofvision.net/owncloud )

La dernière partie implique une navigation complexe. Une scène est créée, dans laquelle un nombre aléatoire de cases de taille aléatoire est placé. La tâche est de parcourir la scène sans heurter les boîtes. À la fin de la zone d'essai, dans un endroit aléatoire, il y a une zone cible. L'utilisateur peut appuyer sur "espace" pour que la zone cible diffuse un signal sonore afin de le localiser et de se diriger vers celui-ci.

L'approche théorique de la formation du monde réel repose sur l'orientation et la mobilité.

Lorsque l'utilisateur passe du niveau 1 de la formation dans l'environnement virtuel au niveau 2 où la formation est menée dans le monde réel, il est important de prendre en compte la différence. La formation dans l'environnement virtuel est subordonnée à un environnement confortable où l'utilisateur se sent en sécurité. Lorsque l'utilisateur commence la formation RW, il doit apprendre à travailler avec le dispositif « SoV » complet ainsi que la façon de déplacer son corps pour l'orientation et de coordonner les mouvements de la tête. Comme avec tout autre dispositif d'assistance, une approche spécifique est nécessaire pour enseigner à l'individu comment s’orienter et être en sécurité dans l'environnement. Par conséquent, l'idée est d'utiliser les stratégies efficaces utilisées dans le monde entier par un spécialiste en orientation et en mobilité pour les malvoyants. Ceci est fait pour augmenter l'efficacité de la formation, réduire le temps de formation et la consommation de ressources de l'utilisateur, comme la tension physique et mentale.

Afin d'évaluer la formation réussie avec l'appareil « SoV », il est nécessaire de s'appuyer sur une stratégie d'analyse comparative efficace. Étant donné que la communauté VIP est très diversifiée et que la mobilité des personnes malvoyantes diffère d'une personne à l'autre, toutes les comparaisons de performance doivent être faites au niveau individuel.

Tous les utilisateurs complètent les leçons de formation accomplir trois conditions dans l'ordre suivant :

1) avec la canne blanche seulement ;

2) à la fois avec la canne blanche et l'appareil « SoV» ;

3) uniquement avec le périphérique « SoV ».

Cela permettra à l'utilisateur de se familiariser de manière progressive avec la zone d'entraînement ainsi que l'appareil sans être submergé par la nouveauté du périphérique « SoV ». Pour s'assurer que les performances ne sont pas uniquement influencées par la mémorisation de la scène de formation, chaque leçon comprendra une dernière et une quatrième étape: répéter la leçon avec le dispositif « SoV » uniquement dans un scénario similaire mais légèrement modifié. En comparant la performance de l'individu dans ces conditions, il est possible d'estimer le bénéfice de l'utilisation du dispositif « SoV » sur la canne blanche seule et de son avantage combiné.

Ce système de benchmarking permet en outre de comparer les besoins des personnes ayant différentes catégories de déficience visuelle. Étant donné que les scénarios de formation sont tous menés dans un cadre naturel bien éclairé, avec des obstacles en contraste avec l'environnement, il est possible que le dispositif « SoV » améliore la mobilité pour ceux qui ont un plus grand déficit visuel. Par conséquent, il doit être pris en compte pour qui l'appareil offre le plus grand bénéfice dans ces scénarios.

Si un VIP est capable de naviguer sans la canne blanche à un rythme similaire à celui d'une personne voyante, il est probable que le périphérique « SoV » n'ajoute pas beaucoup à leur performance déjà élevée et que les informations obtenues grâce à leur participation seront limitées. Par conséquent, les VIP avec un certain niveau de vision et de perception de la lumière passeront par une scène sans dispositif d'assistance. Si la personne est capable de parcourir la scène de test à un rythme similaire à celui d'une personne voyante, on peut conclure que le dispositif « SoV » ajoutera peu à leur performance déjà élevée et qu'ils ne participeront pas aux scénarios de formation actuels.

Les résultats de la formation peuvent être affichés sous forme de graphique où les performances de chaque utilisateur sont tracées dans chaque condition. Afin d'évaluer la formation réussie avec le périphérique « SoV », il est nécessaire de compter sur une stratégie d'analyse comparative efficace. Étant donné que la communauté VIP est très diversifiée et que la mobilité des personnes malvoyantes diffère d'une personne à l'autre, toutes les comparaisons de performance doivent être faites au niveau individuel.

Lors de la formation dans un environnement extérieur RW, plusieurs facteurs doivent être pris en considération, notamment les situations dans lesquelles les VIP trouvent gênants.

Dans WP1, un sondage a été mené pour évaluer le type de fonctionnalité que les utilisateurs VIP attendent d'un périphérique tel qu'il est envisagé par « SoV » [N]. Au total, 113 VIP (45 femmes, âge moyen = 42 ans, plage = 12 à 76 ans) de diverses caractéristiques démographiques de l'Islande, de la Hongrie, de la Roumanie et de la Pologne ont été interviewés. Les situations suivantes sont apparues comme les plus gênantes dans la mobilité extérieure: obstacles inattendus (ex: personnes, animaux de compagnie, voitures mal garées, travaux de construction), traversées (ex : faiblesse ou absence de signalisation sonore, intersections complexes, cyclistes), orientation vers l'extérieur, les espaces ouverts (ex: peu ou pas de points de référence) et les terrains inégaux (ex: trous et flaques d'eau, bosses, marches). Un rapport détaillé de ces résultats se trouve dans D1.3-ADD (Survey for the Assessment of User Expectancies of « SoV »)[31].

Lorsqu'une route est prévue, elle doit être subdivisée en sections selon les situations susmentionnées. Cela signifie qu'une route dans son ensemble peut avoir des sous-routes variant en difficulté.

Comme pour les environnements RW intérieurs, les stratégies O / M doivent être utilisées pendant la formation RW extérieure pour augmenter l'efficacité de la formation, réduire le temps de formation et la consommation de ressources de l'utilisateur, comme la tension physique et mentale. Une liste de vérification O / M est fournie pour la formation RW en plein air.[32]

Fig.25. UPB_02-RW-Plein air (soundofvision.net/owncloud )

Fig.26. UPB_04-RW-Plein air (soundofvision.net/owncloud )

Au cours de WP2, les routes extérieures ont été définies pour chaque partenaire de test. Les routes ont été désignées sur le campus de chaque partenaire en raison de la maîtrise des environnements du campus. Chaque route peut être formée dans son ensemble ou en particulier, selon l'état de la formation de l'utilisateur ainsi que la progression du prototype et les aspects de l'appareil testés.

Nos principales conclusions concernant la formation au prototype « SoV » avancé sont centrées sur une orientation progressive et une approche de mobilité dans des environnements de plus en plus complexes. En outre, l'application d'une stratégie de formation axée sur l'utilisateur semble être la solution la plus appropriée en raison des compétences d'orientation et de mobilité très divergentes de la population malvoyante. Cette approche garantit que le processus de formation sera aussi intéressant que possible. Nous espérons que cela augmentera l'efficacité de la formation, réduira le temps de formation ainsi que la consommation de ressources de l'utilisateur.

Les techniques de rendu audio spatial basées sur les écouteurs à la fine pointe de la technologie s'appuient sur l'utilisation des fonctions de transfert liées à la tête (HRTF) qui sont des filtres particuliers qui captent les effets acoustiques de la tête humaine. Les HRTF permettent une simulation précise du signal qui arrive au tympan en fonction de la position spatiale de la source sonore. Cependant, l'obtention de HRTF personnels nécessite normalement un matériel dédié, un environnement contrôlé et un long temps d'acquisition. Dans le cadre du projet « Sound of Vision » nous développerons un cadre novateur pour la détermination de HRTF individuel à faible coût en fonction de l'étude de l'oreille externe humaine. Les HRTF pour différentes formes d'oreille seront acquis dans un environnement de laboratoire semi-anéchoïque contrôlé, y compris un tout nouveau système de mesure HRTF conçu sur mesure (voir la vidéo démo-time-lapse) et un mannequin KEMAR pour la recherche acoustique avec des oreilles interchangeables. La relation entre les HRTF et les données morphologiques – acquises par un scanner laser – sera établie grâce à des techniques d'apprentissage par machine. L'objectif est d'utiliser les données mesurées pour développer une méthodologie pour déterminer le HRTF individuel directement à partir d'une représentation 3D de la tête de l'utilisateur.

Mon projet présente un cadre multimodal pour évaluer l'expérience émotionnelle et cognitive des personnes aveugles et malvoyantes lors de la navigation dans des environnements intérieurs inconnus basés sur la surveillance mobile et la fusion des signaux d'électroencéphalographie (EEG) et d'électrodéminement (EDA). L'objectif global est de comprendre les facteurs environnementaux qui augmentent le stress et la charge cognitive pour aider à concevoir des technologies de mobilité émotionnellement intelligentes capables de s'adapter aux environnements stressants à partir des données biocapteurs en temps réel. Nous proposons un modèle basé sur un classificateur de donnés aléatoires qui infère de manière automatique (pondérée AUROC 79,3%) l'environnement correct parmi cinq catégories prédéfinies exprimant des situations quotidiennes génériques de complexité et de difficulté variables, où différents niveaux de stress sont susceptibles de se produire. En localisant les caractéristiques multimodales les plus prédictives liées à la charge cognitive et au stress, nous fournissons des informations supplémentaires sur la relation entre les biomarqueurs spécifiques et les facteurs environnementaux / situationnels qui les ont évoqués.

Un certain nombre d'approches de sonification proposées ont été testées par des volontaires voyants et aveugles pour une précision et une efficacité dans la représentation d'environnements virtuels simples.

Le projet « Sound of Vision » implique l'élaboration d'un dispositif de substitution sensorielle qui vise à créer et à transmettre une représentation auditive riche du milieu environnant aux malvoyants. Cependant, la faisabilité d'une telle approche est fortement limitée par la flexibilité neurale, les possibilités de substitution sensorielle et l'adaptation à l'apport sensoriel modifié. Nous examinons les preuves d'une telle flexibilité sous différents angles. Nous discutons de la neuroplasticité du cerveau adulte en mettant l'accent sur les changements fonctionnels chez les malvoyants par rapport aux personnes voyantes. Nous abordons les effets de l'adaptation sur l'activité cérébrale, en particulier les effets à court et à long terme de l'exposition répétée à des stimuli particuliers. Nous discutons ensuite des preuves de substitution sensorielle telles que « Sound of Vision » implique, tout en discutant enfin des preuves d'adaptation aux changements dans l'environnement auditif. Nous concluons que les entreprises de substitution sensorielle telles que

« Sound of Vision » sont tout à fait possibles à la lumière des preuves disponibles, ce qui est encourageant à l'égard de ces projets.

Le prototype « Sound of Vision », avec tous les composants, fonctionnalités et caractéristiques susmentionnés, met en œuvre, des situations simulées et réelles.

« Sound of Vision » comprend les protocoles de formation des utilisateurs, y compris le jeu sérieux (Mode de formation de l'appareil), le protocole de formation sur les environnements réels supplémentaires, ainsi que des instructions détaillées à suivre par les patients et les gardiens lors de l'utilisation du système.

Il y a la bibliothèque de logiciels de sonification réutilisable: elle mettra en œuvre les méthodes de sonification avancées développées par le projet et proposera une API (Application Programming Interface) permettant une réutilisation indépendante dans différentes recherches et projets.

Il y a un jeu sérieux de formation réutilisable: le jeu sera mis en œuvre de manière modulaire et portable, afin qu'il puisse être réutilisé dans différentes recherches et projets (pour la formation avec des appareils d'assistance ou à des fins de divertissement) dédiés aux malvoyants.

Une base de données avec les tests effectués, les mesures BCI et les commentaires des utilisateurs, y compris quatre composants importants pour chaque test effectué: profil d'utilisateur malvoyant (y compris les données anonymes), commentaires des utilisateurs concernant la recherche de performance et d'utilisabilité, vidéo du test effectué (soit en réel ou les environnements virtuels) et les mesures BCI associées des activations corticales. Un outil logiciel sera également fourni qui permettra l'examen synchronisé de la vidéo et des mesures. Cette base de données constituera une source importante d'informations pouvant déboucher sur d'autres recherches, par d'autres équipes de recherche, notamment en matière de sonification mais, en plus, de dispositifs d'assistance et de réadaptation et de neurosciences en général. La base de données est mise à jour automatiquement avec les données d'utilisation anonymes et les commentaires des utilisateurs: le composant de reporting automatisé, intégré dans la fonctionnalité des périphériques, permettra le reporting automatique des données d'utilisation anonymes et des commentaires de l'utilisateur, même en dehors des environnements de test dédiés du projet, et même après la fin du projet. Les rapports seront facultatifs pour chaque utilisateur, en fonction de l'acceptation personnelle. Les données automatisées rapportées seront stockées dans une base de données étendue et complète qui peut fournir des preuves uniques sur le très grand groupe social de personnes malvoyantes, qui peuvent se traduire par une connaissance avancée du comportement de l'individu lié à l'utilisation de « Sound of Vision » en tant qu'instrument ICT, le bien-être personnel et la gestion et la prévention des maladies et les interventions personnalisées de santé comportementale. La base de données sera lancée avant la fin du projet et continuera à être mise à jour par la suite, en fonction de l'utilisation du système.

5.5. Les résultats de mes recherches pour le projet « Sound of Vision »

Le projet « Sound of Vision » produira la liste suivante des résultats concrets :

1. les protocoles de formation des utilisateurs, y compris le jeu sérieux (Mode de formation de l'appareil), le protocole de formation sur les environnements réels supplémentaires, ainsi que des instructions détaillées à suivre par les patients et les gardiens, lors de l'utilisation du système ;

2. le jeu sérieux de formation réutilisable : le jeu sera mis en œuvre de manière modulaire et portable, afin qu'il puisse être réutilisé dans différentes recherches et projets (pour la formation avec des appareils d'assistance ou à des fins de divertissement) dédiés aux malvoyants ;

3. la base de données avec les tests effectués, les mesures BCI et les commentaires des utilisateurs, y compris 4 composants importants pour chaque test effectué: profil d'utilisateur malvoyant (y compris les données anonymes), commentaires des utilisateurs concernant la recherche de performance et d'utilisabilité, vidéo du test effectué (soit en réel ou les environnements virtuels) et les mesures BCI associées des activations corticales ; cette base de données constituera une source importante d'informations pouvant déboucher sur d'autres recherches, par d'autres équipes de recherche, notamment en matière de sonification mais, en plus, de dispositifs d'assistance et de réadaptation et de neurosciences en général;

4. un outil logiciel sera également fourni qui permettra l'examen synchronisé de la vidéo et des mesures.

Les utilisateurs et leurs resultats

–––––––––––––––

Question: What is the distance to the object?

Correct answer: 1 m

User answer: 1 m

Accuracy: 100%

============================================

END TESTING SCENARIO

Question: What is the distance to the object?

Correct answer: 4 m

User answer: 4 m

Accuracy: 100%

============================================

END TESTING SCENARIO

============================================

============================================

Table 1

Table 2

Fig.27. Resultats du scenario (soundofvision.net/owncloud )

On commence avec l’histograme audio :

Fig.28. Mon audiogramme (soundofvision.net/owncloud )

Et après l’audiogramme on doit faire les exercices :

Fig.29. Width- Largeur (soundofvision.net/owncloud )

Fig.30. Width- Largeur de réponse (soundofvision.net/owncloud )

Fig.31. Corridor- essai (soundofvision.net/owncloud )

6. L’agenda virtuel pour les malvoyantes et

les aveugles: E- notes

Fig.32. L’application : Agenda virtuel

L'application E-notes est une application basée sur les résultats des tests du projet

« Sound of Vision ». Ceci est basée sur les principes suivants :

– la création d'une base de données

– l'insertion des champs: nom, âge, sexe, tâches

– l'insertion des résultats de la base de données de « Sound of Vision »

– la validation des données de la base de données

Pour cette application, nous avons utilisé les programmes suivants :

– pour le code j’ai utilisé le langage de programmation Java
– pour la base de données j’ai utilisé MySQL Workbrench 6.3.4.
– pour la diagramme j’ai utilisé Astah Professional.

6.1 Les fonctionnalités et les technologies

Les fonctionnalités de l’agenda virtuel sont :

a) L’accesibilité sur Internet : accessible et consultable en ligne partout 24 heures/24

et 7 jours/7, l’agenda virtuel permet de travailler quand

on veut et où on veut ;

b) L’accès 100% sécurisé : les accès sont assurés par mot de passe individuel ou de

groupement en cas d’agenda multiple ;

la confidentialité : les données sont cryptées afin de rendre le

service totalement sûr ;

la sauvegarde : la sécurisation des données était une priorité

permanente. L’agenda virtuel dispose d’une architecture

autour de serveurs dédiés.

c) Coffre -fort numérique : On peut consulter, trier et archiver tous les documents

en toute simplicité. N’emporte où les documents sont

accessibles 24 heures /24 et 7 jours /7.

d ) Compatible tout système informatique : L’agenda est accessible depuis n’im-

porte quel ordinateur et compatible

avec la totalité des navigateurs Internet.

e ) Notifications au fil de l’eau:Au fil de l'eau, on peut recevoir des notifications, des

alertes messagerie, SMS et Email.Ainsi, nous restons

informé des divers évènements de l’agenda.

f ) Consignes : À travers un service de gestion de consignes paramétrables, il est pos-

sible de transmettere les instructions pour respecter toute convenance.

J’ai essayé de développer un agenda web simple et efficace, pour la gestion de la base des données du projet ,,Sound of Vision’’, auquel on peut accéder à tout moment. Consultable et modifiable depuis n’importe quel accès Internet, cet agenda, est entièrement paramétrable en fonction des besoins personnels.

Les technologies utilisées pour l'application sont:

Eclipse IDE for Java EE DEVELOPERES- OXYGEN RC2 packeges

UTILISATION DE WEB avec l'interface utilisateur JSF 2.0 applications PRIMEFACES-GUI

Création de bases de données MySQL Workbench: voir les tâches de table, l'enregistrement des utilisateurs et les utilisateurs de connexion.

Pour les servers : GlassFish et Tomcat.

La première étape dans la création de l'application est de créer les projets nécessaires

dans Eclipse Java EE IDE .

     – Choisissez "Fichier> Nouveau projet" pour ouvrir l'Assistant Nouveau projet. Sous

Catégories, sélectionnez Java EE; Sous Projets, sélectionnez Enterprise Application.

Cliquez sur Suivant.

    –  Sélectionnez l'emplacement du projet et nommez le projet, SchedulerApp, puis cliquez

sur Suivant.

  – Sélectionnez le Glassfish v3 installé comme serveur et Java EE 6 comme version Java

EE, puis cliquez sur Terminer.

Avant de créer les classes de bean de session nécessaires, regardons l'une des classes

principales, JobInfo, qui sera fortement utilisé dans l'application à la fois sur le front-end

et l'arrière. Fondamentalement, il s'agit d'une classe Value Object qui stocke les informa-

tions requises pour configurer la minuterie. Voici un résumé de la classe:

– Après avoir créé cette classe, nous sommes prêts à créer les beans de session.
-Création des beans de session BatchJob

Dans cette application, nous créerons TROIS travaux par lot, à savoir: BatchJobA,

BatchJobB et BatchJobC, où chacun est un Beak de session sans état qui implémente une

interface locale, BatchJobInterface. L'interface aura une méthode, executeJob

(javax.ejb.Timer timer), de sorte que chaque binaire de session de travail par lots devra

l'implémenter et cela devient le point de départ pour les travaux par lot.

Dans la fenêtre Projets, cliquez avec le bouton droit de la souris sur le projet

SchedulerApp-ejb et sélectionnez "Nouveau> Bean session …"
Dans la boîte de dialogue Bean de nouvelle session, spécifiez le nom EJB comme

BatchJobA, le package comme "com.schedulerapp.batchjob", Type de session comme

apatride et sélectionnez Local for Create Interface option

Les fichiers de l'avis 2 sont créés: BatchJobA (classe d'implémentation) et BatchJobALocal

(interface locale). Ici, je veux renommer l'Interface afin qu'elle ait un nom générique

comme BatchJobInterface

Dans la vue du projet, accédez au fichier BatchJobALocal. Cliquez avec le bouton droit de

la souris sur l'élément et sélectionnez "Refactor> Renommer …", et modifiez le nom sur

BatchJobInterface.

Ouvrez le fichier renommé, BatchJobInterface dans l'éditeur, et ajoutez la méthode:

@Local
public interface BatchJobInterface
{
public void executeJob(javax.ejb.Timer timer);
}

!Notez le fichier, BatchJobA devient dangereux après l'exécution de ce qui précède.

Ouvrez le fichier, BatchJobA et vous devriez voir l'indice d'erreur (ampoule avec icône d'exclamation) sur le côté gauche de l'éditeur. Cliquez sur l'icône et sélectionnez "Mettre en œuvre toutes les méthodes abstraites" et éditez le fichier pour qu'il ressemble à ceci:

@Stateless
public class BatchJobA implements BatchJobInterface
{
static Logger logger = Logger.getLogger("BatchJobA");

@Asynchronous
public void executeJob(Timer timer)
{
logger.info("Start of BatchJobA at " + new Date() + "…");
JobInfo jobInfo = (JobInfo) timer.getInfo();
try
{
logger.info("Running job: " + jobInfo);
Thread.sleep(30000); //Sleep for 30 seconds
}
catch (InterruptedException ex)
{
}
logger.info("End of BatchJobA at " + new Date());
}
}

-Dans la vue du projet, accédez au fichier, BatchJobA. Cliquez avec le bouton droit de la

souris sur l'élément et sélectionnez "Copier"

  -Dans la même vue, cliquez avec le bouton droit de la souris sur le package,

"com.schedulerapp.batchjob" et sélectionnez "Coller> Refactor Copy …"

 – Dans la boîte de dialogue Copier classe, entrez "BatchJobB" pour le champ Nouveau

Nom et cliquez sur le bouton Refactor.

     Notez le nouveau Bean de session, BatchJobB est créé avec quelques clics simples d'un

bouton. La seule chose à changer dans la nouvelle classe est les relevés imprimés, où

"BatchJobA" sera changé en "BatchJobB".

  !Répétez les étapes ci-dessus pour créer un bean de session BatchJobC.

Nous disposons maintenant de TROIS beans de session de travail par lots: BatchJobA,

BatchJobB et BatchJobC qui implémente l'interface locale, BatchJobInterface. Nous allons

ensuite créer la dernière session Bean pour ce projet.

Création de la session de session Bean

Ici, nous créerons le Job Bean de session dont la responsabilité principale est de fournir les services nécessaires à l'interface utilisateur de front-end pour gérer (CRUD) les travaux et fournir également la méthode de temporisation pour TimerService.
    Dans la fenêtre Projets, cliquez avec le bouton droit de la souris sur le projet SchedulerApp-ejb et sélectionnez "Nouveau> Bean session …"
     Dans la boîte de dialogue Bean de la nouvelle session, spécifiez le nom EJB comme JobSessionBean, le package comme "com.schedulerapp.ejb", le type de session comme apatride et laissez l'interface Créer désactivée, c'est-à-dire aucune interface (nouvelle dans EJB 3.1) et cliquez sur Terminer.
     Ouvrez le fichier nouvellement créé, JobSessionBean dans l'éditeur et modifiez le contenu pour qu'il ressemble à ce qui suit:

@Stateless
@LocalBean
public class JobSessionBean
{
@Resource
TimerService timerService; //Resource Injection
static Logger logger = Logger.getLogger("JobSessionBean");

@Timeout
public void timeout(Timer timer)
{
System.out.println("###Timer <" + timer.getInfo() + "> timeout at " + new Date());
try
{
JobInfo jobInfo = (JobInfo) timer.getInfo();
BatchJobInterface batchJob = (BatchJobInterface) InitialContext.doLookup(
jobInfo.getJobClassName());
batchJob.executeJob(timer); //Asynchronous method
}
catch (NamingException ex)
{
logger.log(Level.SEVERE, null, ex);
}
catch (Exception ex1)
{
logger.severe("Exception caught: " + ex1);
}
}

private Timer getTimer(JobInfo jobInfo)
{
Collection<Timer> timers = timerService.getTimers();
for (Timer t : timers)
{
if (jobInfo.equals((JobInfo) t.getInfo()))
{
return t;
}
}
return null;
}

public JobInfo createJob(JobInfo jobInfo)
throws Exception
{
//Check for duplicates
if (getTimer(jobInfo) != null)
{
throw new DuplicateKeyException("Job with the ID already exist!");
}

TimerConfig timerAConf = new TimerConfig(jobInfo, true);

ScheduleExpression schedExp = new ScheduleExpression();
schedExp.start(jobInfo.getStartDate());
schedExp.end(jobInfo.getEndDate());
schedExp.second(jobInfo.getSecond());
schedExp.minute(jobInfo.getMinute());
schedExp.hour(jobInfo.getHour());
schedExp.dayOfMonth(jobInfo.getDayOfMonth());
schedExp.month(jobInfo.getMonth());
schedExp.year(jobInfo.getYear());
schedExp.dayOfWeek(jobInfo.getDayOfWeek());
logger.info("### Scheduler expr: " + schedExp.toString());

Timer newTimer = timerService.createCalendarTimer(schedExp, timerAConf);
logger.info("New timer created: " + newTimer.getInfo());
jobInfo.setNextTimeout(newTimer.getNextTimeout());

return jobInfo;
}

public List<JobInfo> getJobList()
{
logger.info("getJobList() called!!!");
ArrayList<JobInfo> jobList = new ArrayList<JobInfo>();
Collection<Timer> timers = timerService.getTimers();
for (Timer t : timers)
{
JobInfo jobInfo = (JobInfo) t.getInfo();
jobInfo.setNextTimeout(t.getNextTimeout());
jobList.add(jobInfo);
}
return jobList;
}

public JobInfo getJobInfo(JobInfo jobInfo)
{
Timer t = getTimer(jobInfo);
if (t != null)
{
JobInfo j = (JobInfo) t.getInfo();
j.setNextTimeout(t.getNextTimeout());
return j;
}
return null;
}
public JobInfo updateJob(JobInfo jobInfo)
throws Exception
{
Timer t = getTimer(jobInfo);
if (t != null)
{
logger.info("Removing timer: " + t.getInfo());
t.cancel();
return createJob(jobInfo);
}
return null;
}
public void deleteJob(JobInfo jobInfo)
{
Timer t = getTimer(jobInfo);
if (t != null)
{
t.cancel();
}
}

Création de l'interface utilisateur Web en utilisant JSF 2.0 avec PrimeFaces

Au moment de la rédaction de ce didacticiel, il n'existe pas beaucoup de choix de

frameworks basés sur Ajax qui fonctionnent avec JSF 2.0 car il est encore assez

nouveau. Mais j'ai trouvé PrimeFaces pour être le plus complet et adapté à cette démo

car il a implémenté le composant DataTable UI et il semble être le plus facile à intégrer

à l'IDE NetBeans.

Préparation du projet Web pour utiliser JSF 2.0 et PrimeFaces

Avant de créer les pages Web, assurez-vous que le framework JavaServer Faces est ajouté au projet Web, SchedulerApp-war.

Fig.51. Customisation App-war

Dans la vue Projet, cliquez avec le bouton droit de la souris sur le projet Web,

SchedulerApp-war et sélectionnez Propriétés (dernier élément). Sous les éléments

Catégories, sélectionnez Frameworks et assurez-vous que JavaServer Faces est

ajouté à la liste Used Frameworks:

Création des beans de support pour les pages JSF

Avant de créer les pages JSF réelles, nous devons d'abord créer les beans qui fournissent les propriétés et les gestionnaires d'action pour les pages JSF (XHTML). Ici, nous créerons deux MAQUILLAGES:

     *JobList – RequestScoped backing bean pour la page Job Listing

     *JobMBean – SessionScoped backing bean pour le reste des pages JSF

Étapes pour créer les beans:

     -Dans la vue Projet, cliquez avec le bouton droit de la souris sur le projet Web, SchedulerApp-war et sélectionnez "Nouveau> JSF Managed Bean …", spécifiez JobList comme Nom de la classe, "com.schedulerapp.web" en tant que Nom du package et La portée à demander

     Répétez les étapes pour créer le deuxième faisceau de support, nommez-le JobMBean et définissez la portée pour être une session à la place.

      Modifiez la classe, JobList, de sorte que cela ressemble à ceci:

@ManagedBean(name = "JobList")
@RequestScoped
public class JobList implements java.io.Serializable
{
@EJB
private JobSessionBean jobSessionBean;
private List<JobInfo> jobList = null;

/** Creates a new instance of JobList */
public JobList()
{
}

@PostConstruct
public void initialize()
{
jobList = jobSessionBean.getJobList();
}

public List<JobInfo> getJobs()
{
return jobList;
}
}

 Edit the class, JobMBean, so that it looks like this:

@ManagedBean(name = "JobMBean")
@SessionScoped
public class JobMBean implements java.io.Serializable
{
@EJB
private JobSessionBean jobSessionBean;
private JobInfo selectedJob;
private JobInfo newJob;

public JobMBean()
{
}

public JobInfo getNewJob()
{
return newJob;
}

public void setNewJob(JobInfo newJob)
{
this.newJob = newJob;
}

public JobInfo getSelectedJob()
{
return selectedJob;
}

public String setSelectedJob(JobInfo selectedJob)
{
this.selectedJob = jobSessionBean.getJobInfo(selectedJob);
return "JobDetails";
}

public String gotoListing()
{
return "JobList";
}

public String gotoNew()
{
System.out.println("gotoNew() called!!!");
newJob = new JobInfo();
return "JobNew";
}

public String duplicateJob()
{
newJob = selectedJob;
newJob.setJobId("<Job ID>");
return "JobNew";
}

public String updateJob()
{
FacesContext context = FacesContext.getCurrentInstance();
try
{
selectedJob = jobSessionBean.updateJob(selectedJob);
context.addMessage(null, new FacesMessage(FacesMessage.SEVERITY_INFO,
"Success", "Job successfully updated!"));
}
catch (Exception ex)
{
Logger.getLogger(JobMBean.class.getName()).log(Level.SEVERE, null, ex);
context.addMessage(null, new FacesMessage(FacesMessage.SEVERITY_ERROR,
"Failed", ex.getCause().getMessage()));
}
return null;
}

public String deleteJob()
{
jobSessionBean.deleteJob(selectedJob);
return "JobList";
}

public String createJob()
{
FacesContext context = FacesContext.getCurrentInstance();
try
{
selectedJob = jobSessionBean.createJob(newJob);
context.addMessage(null, new FacesMessage(FacesMessage.SEVERITY_INFO,
"Sucess", "Job successfully created!"));
return "JobDetails";
}
catch (Exception ex)
{
Logger.getLogger(JobMBean.class.getName()).log(Level.SEVERE, null, ex);
context.addMessage(null, new FacesMessage(FacesMessage.SEVERITY_ERROR,
"Failed", ex.getCause().getMessage()));
}
return null;
}
}

 Création des pages JSF

Enfin, nous sommes prêts à créer les pages TROIS JSF: JobList, JobDetails et JobNew.

Joblist. x html

<html xmlns="http://www.w3.org/1999/xhtml"
xmlns:f="http://java.sun.com/jsf/core"
xmlns:h="http://java.sun.com/jsf/html"
xmlns:p="http://primefaces.prime.com.tr/ui">
<h:head>
<meta http-equiv="Content-Type" content="text/html; charset=UTF-8"/>
<title>Job List</title>
<p:resources />
</h:head>
<h:body>
<h2>Job List</h2>
<h:form>
<p:dataTable value="#{JobList.jobs}" var="item" paginator="true"
rows="10" id="jobList">
<p:column>
<f:facet name="header">
<h:outputText value="Job ID"/>
</f:facet>
<h:commandLink action="#{JobMBean.setSelectedJob(item)}" value="#{item.jobId}"/>
</p:column>
<p:column>
<f:facet name="header">
<h:outputText value="Name"/>
</f:facet>
<h:outputText value="#{item.jobName}"/>
</p:column>
<p:column>
<f:facet name="header">
<h:outputText value="Class"/>
</f:facet>
<h:outputText value="#{item.jobClassName}"/>
</p:column>
<p:column>
<f:facet name="header">
<h:outputText value="Start Date"/>
</f:facet>
<h:outputText value="#{item.startDateStr}"/>
</p:column>
<p:column>
<f:facet name="header">
<h:outputText value="End Date"/>
</f:facet>
<h:outputText value="#{item.endDateStr}"/>
</p:column>
<p:column>
<f:facet name="header">
<h:outputText value="Next Timeout"/>
</f:facet>
<h:outputText value="#{item.nextTimeoutStr}"/>
</p:column>
<p:column>
<f:facet name="header">
<h:outputText value="Expression"/>
</f:facet>
<h:outputText value="#{item.expression}"/>
</p:column>
</p:dataTable>
<br/>
<h:commandButton action="#{JobMBean.gotoNew}" value="New Job"/>
</h:form>
</h:body>
</html>

JobDetails.xhtml

<html xmlns="http://www.w3.org/1999/xhtml"
xmlns:f="http://java.sun.com/jsf/core"
xmlns:h="http://java.sun.com/jsf/html"
xmlns:p="http://primefaces.prime.com.tr/ui">
<h:head>
<meta http-equiv="Content-Type" content="text/html; charset=UTF-8"/>
<title>Job Details</title>
<p:resources />
</h:head>
<h:body>
<h2><h:outputText value="Job Details"/></h2>
<h:form>
<h:panelGrid columns="2" bgcolor="#eff5fa">
<h:outputText value="Job ID:"/>
<h:inputText id="jobId" value="#{JobMBean.selectedJob.jobId}" readonly="true"/>
<h:outputText value="Job Name:"/>
<h:inputText id="jobName" value="#{JobMBean.selectedJob.jobName}"/>
<h:outputText value="Job Class Name:"/>
<h:inputText id="jobClass" value="#{JobMBean.selectedJob.jobClassName}" size="40"/>
<h:outputText value="Start Date:"/>
<p:calendar id="startDate" value="#{JobMBean.selectedJob.startDate}"/>
<h:outputText value="End Date:"/>
<p:calendar id="endDate" value="#{JobMBean.selectedJob.endDate}"/>
<h:outputText value="Second:"/>
<h:inputText id="second" value="#{JobMBean.selectedJob.second}"/>
<h:outputText value="Minute:"/>
<h:inputText id="minute" value="#{JobMBean.selectedJob.minute}"/>
<h:outputText value="Hour:"/>
<h:inputText id="hour" value="#{JobMBean.selectedJob.hour}"/>
<h:outputText value="Day of Month:"/>
<h:inputText id="dayOfMonth" value="#{JobMBean.selectedJob.dayOfMonth}"/>
<h:outputText value="Month:"/>
<h:inputText id="month" value="#{JobMBean.selectedJob.month}"/>
<h:outputText value="Year:"/>
<h:inputText id="year" value="#{JobMBean.selectedJob.year}"/>
<h:outputText value="Day Of Week:"/>
<h:inputText id="dayOfWeek" value="#{JobMBean.selectedJob.dayOfWeek}"/>
<h:outputText value="Job Description:"/>
<h:inputTextarea cols="40" rows="4" id="description" value="#{JobMBean.selectedJob.description}"/>
<h:outputText value="Next Timeout:"/>
<h:inputText id="nextTimeout" value="#{JobMBean.selectedJob.nextTimeoutStr}" readonly="true"/>
</h:panelGrid>
<h:commandButton id="back" value="Back" action="#{JobMBean.gotoListing}"/>
<h:commandButton id="update" value="Update" action="#{JobMBean.updateJob}"/>
<h:commandButton id="delete" value="Delete" action="#{JobMBean.deleteJob}"/>
<h:commandButton id="duplicate" value="Duplicate" action="#{JobMBean.duplicateJob}"/>
  
<h:outputLink id="help" value="http://java.sun.com/javaee/6/docs/tutorial/doc/bnboy.html" target="help">Help</h:outputLink>
</h:form>
<p:messages showDetail="true"/>
</h:body>
</html>

JobNew.xhtml

<html xmlns="http://www.w3.org/1999/xhtml"
xmlns:f="http://java.sun.com/jsf/core"
xmlns:h="http://java.sun.com/jsf/html"
xmlns:p="http://primefaces.prime.com.tr/ui">
<h:head>
<meta http-equiv="Content-Type" content="text/html; charset=UTF-8"/>
<title>New Job Details</title>
<p:resources />
</h:head>
<h:body>
<h2><h:outputText value="New Job Details"/></h2>
<h:form>
<h:panelGrid columns="2" bgcolor="#eff5fa" >
<h:outputText value="Job ID:"/>
<h:inputText id="jobId" value="#{JobMBean.newJob.jobId}"/>
<h:outputText value="Job Name:"/>
<h:inputText id="jobName" value="#{JobMBean.newJob.jobName}"/>
<h:outputText value="Job Class Name:"/>
<h:inputText id="jobClass" value="#{JobMBean.newJob.jobClassName}" size="40"/>
<h:outputText value="Start Date:"/>
<p:calendar id="startDate" value="#{JobMBean.newJob.startDate}"/>
<h:outputText value="End Date:"/>
<p:calendar id="endDate" value="#{JobMBean.newJob.endDate}" navigator="true"/>
<h:outputText value="Second:"/>
<h:inputText id="second" value="#{JobMBean.newJob.second}"/>
<h:outputText value="Minute:"/>
<h:inputText id="minute" value="#{JobMBean.newJob.minute}"/>
<h:outputText value="Hour:"/>
<h:inputText id="hour" value="#{JobMBean.newJob.hour}"/>
<h:outputText value="Day of Month:"/>
<h:inputText id="dayOfMonth" value="#{JobMBean.newJob.dayOfMonth}"/>
<h:outputText value="Month:"/>
<h:inputText id="month" value="#{JobMBean.newJob.month}"/>
<h:outputText value="Year:"/>
<h:inputText id="year" value="#{JobMBean.newJob.year}"/>
<h:outputText value="Day Of Week:"/>
<h:inputText id="dayOfWeek" value="#{JobMBean.newJob.dayOfWeek}"/>
<h:outputText value="Job Description:"/>
<h:inputTextarea cols="40" rows="4" id="description" value="#{JobMBean.newJob.description}"/>
</h:panelGrid>
<h:commandButton id="back" value="Back" action="#{JobMBean.gotoListing}"/>
<h:commandButton id="create" value="Create" action="#{JobMBean.createJob}"/>  
<h:outputLink id="help" value="http://java.sun.com/javaee/6/docs/tutorial/doc/bnboy.html" target="help">Help</h:outputLink>
</h:form>
<p:messages showDetail="true"/>
</h:body>
</html>

Test de l'application

Ici, nous ferons un test simple pour vérifier que l'application fonctionne. Nous programmerons 3 emplois comme suit:

     Job 1 – exécutez BatchJobA toutes les 2 minutes (juste pour vous assurer que nous voyons le travail en cours d'exécution)

     Job 2 – exécutez BatchJobB tous les jours à 23h

     Job 3 – exécutez BatchJobC tous les dimanches à 1h du matin

Étapes pour créer les emplois:

     Accédez à la page d'inscription, http: // localhost: 8080 / SchedulerApp-war / JobList.jsf et vous devriez voir l'écran suivant:

Fig.52. Afficher les jobs description

Cliquez sur le bouton "Nouvel emploi" ci-dessous le tableau.

Entrez les détails de Job 1 comme suit et cliquez sur le bouton "Créer"

Fig.53.Job Details

Cliquez sur le bouton "Dupliquer" ci-dessous pour créer un nouveau travail en utilisant les informations actuelles.
Entrez les détails de Job 2 comme suit et cliquez sur le bouton "Créer"

Fig.54. Job-Details
Cliquez sur le bouton "Dupliquer" ci-dessous pour créer un nouveau travail en utilisant les informations actuelles.
Entrez les détails pour Job 3 comme suit et cliquez sur le bouton "Créer"

Fig.55. Job.Details

Dans ce but, nous avons fini de créer les emplois, cliquez sur le bouton "Retour" pour voir la liste.
La page Liste des tâches devrait se composer de 3 emplois créés dans les étapes ci-dessus

Fig. 56. Liste des tâches

Base de données – la création :

Fig.33. La création de la base de données

Fig.34. Création de la base de données-code

Après avoir créé la base de données, nous avons créé le Login par lequel le formateur

peut se connecter et voir tous les activités que vous devez faire :

– L’enregistrement des nouveaux utilisateurs :

Fig.35. Création de la base de données-Workbrench

Fig.36. Création de la base de données-Workbrench

– La validation du programme de travail :

Fig.37. Enregistrer les utilisateurs

Fig.38. Enregistrer les utilisateurs

Fig.39. Enregistrer les utilisateurs

Le traitement des résultats :

Je présenterais mes observations pendant les essais de l'équipement : j'avais

remarqué que les résultats des tests, faits dans les mêmes conditions, étaient

variables en fonction :

– de l'âge des sujets ayant un handicap visuel,

– du sexe des personnes testées,
– du niveau de l'éducation, et

– de la profession de ceux qui essayaient le même équipement,
– du nombre de sessions de formation de ceux qui essayaient l'équipement.

6.2. L’architecture de l’application

Pour faire mon projet j’ai utilisé les Diagrammes suivants :

Fig. 43. Use Case

Fig.44. Les clases de mon projet

Fig. 45. Le diagramme d’activité

7. Conclusions

La conclusion de mon projet :

La recherche présentée a été réalisée dans le cadre du projet « Sound of Vision », les essais des logiciels étant un métier à part entière, visant à mieux comprendre les défis auxquels sont confrontées les personnes ayant une déficience visuelle, comment ils naviguent dans des environnements intérieurs inconnus, car le matériel et l’équipement technique doivent devenir des aides techniques destinés à permettre à une personne mal ou non voyante de retrouver une certaine autonomie et de se maintenir dans son cadre de vie familial et professionnel.

« Sound of Vision » met en œuvre et valide un système matériel et logiciel non invasif original pour aider les mal-voyants en créant et en transmettant une représentation auditive du milieu environnant. La formation dans l'environnement virtuel est subordonnée à un environnement confortable où l'utilisateur se sent en sécurité. Cette représentation sera créée, mise à jour et livrée à un aveugle en continu et en temps réel. La formation dans le monde réel à l'intérieur et à l'extérieur sera basée sur les méthodes de formation de l'orientation et de la mobilité, car les personnes ayant une déficience visuelle doivent augmenter leur capacité de se déplacer en toute sécurité et efficacité, avec toute aisance et autonomie possibles. Comme ça on définit souvent « l’orientation et la mobilité » c'est-à-dire le fait de savoir où l’on est, où l’on veut aller et comment faire pour s’y rendre.

Pour les élèves aux prises avec une perte de la vision, l'acquisition des certains concepts et certaines habiletés, il leurs faut plus de temps : l’aptitude à s’orienter et à se déplacer, l’acquisition des concepts, les habiletés de communication interpersonnelle, le perfectionnement scolaire, l’aptitude à la vie quotidienne s’apprennent peu à peu pendant des années.

Ce système aidera les personnes malvoyantes dans tout type d'environnement

(intérieur / extérieur), sans avoir besoin d'étiquettes / capteurs prédéfinis situés dans

les environs.

Le prototype « Sound of Vision », avec tous les composants, fonctionnalités et

caractéristiques mentionnées ci-dessus, met en œuvre, des situations simulées et

réelles.

« Sound of Vision » comprend les protocoles de formation des utilisateurs, y

compris le jeu sérieux ( Mode de formation de l'appareil ), le protocole de formation

sur les environnements réels supplémentaires, ainsi que des instructions détaillées à suivre par les patients et les gardiens lors de l'utilisation du système. Il s’agit :

A) d’un jeu sérieux de formation réutilisable : le jeu sera mis en œuvre de manière modulaire et portable, afin qu'il puisse être réutilisé dans différentes recherches et projets (pour la formation avec des appareils d'assistance ou à des fins de divertissement) dédiés aux malvoyants.

B) d’une base de données avec les tests effectués, les mesures BCI et les commentaires des utilisateurs, y compris quatre composants importants pour chaque test effectué :

1) le profil d'utilisateur malvoyant (y compris les données anonymes),

2) les commentaires des utilisateurs concernant la recherche de performance et

d'utilisabilité,

3) le vidéo du test effectué (soit en réel ou les environnements virtuels) et

4) les mesures BCI associées à des activations corticales.

Cette base de données constituera une source importante d'informations pouvant

déboucher sur d'autres recherches, par d'autres équipes de recherche, notamment en

matière de sonification mais, en plus, de dispositifs d'assistance et de réadaptation et

de neurosciences en général.

C) d’un outil logiciel qui sera également fourni pour permettre l'examen synchronisé de la vidéo et des mesures. Les principales conclusions concernant la formation au prototype « SoV » avancé sont centrées sur une orientation progressive et une approche de mobilité dans des environnements de plus en plus complexes.

Afin de développer le protocole de formation des utilisateurs, les facteurs suivants

seront pris en compte :

a) l'utilisation pratique du système,

b) les processus neurologiques et psychologiques impliqués dans l'évolution d'un

nouveau sens sensoriel par la neuro-plastique et l'ergonomie.

c) assurer la facilité d'utilisation et l'efficacité du protocole de la formation.

Ces tâches nécessiteront une consommation minimale des ressources de l'utilisateur

(temps, effort intellectuel) afin d'atteindre l'objectif visé. Les formations sérieuses et

Les protocoles de formation de la vie réelle seront développés en fonction d’un

prototype avancé. Afin d'aider les utilisateurs à utiliser efficacement le dispositif

« SoV » innovant et, par conséquent, à améliorer leur qualité de vie, une procédure

de formation a été développée dans le document actuel.

Le but principal de la procédure de formation est de proposer aux utilisateurs une

manière facile de maîtriser le dispositif « SoV », mais sa mise en œuvre fournira

également des résultats utiles concernant les avantages et les limitations apportés par

« SoV » par rapport à d'autres dispositifs bien connus ( la canne blanche).

L'approche théorique de la formation du monde réel repose sur l'orientation et la

mobilité. La formation dans l'environnement virtuel est subordonnée à un

environnement confortable où l'utilisateur se sent en sécurité.

Comme avec tout autre dispositif d'assistance, une approche spécifique est

nécessair pour enseigner à l'individu comment s’orienter et être en sécurité dans

l'environnement.

Par conséquent, l'idée est d'utiliser les stratégies efficaces utilisées dans le monde

entier par un spécialiste en orientation et en mobilité pour les malvoyants. Ceci est fait

pour augmenter l'efficacité de la formation, réduire le temps de formation et la

consommation de ressources de l'utilisateur, comme la tension physique et mentale. Un

système est utilisable lorsqu’il permet à l’utilisateur de réaliser sa tâche avec efficacité,

efficience et satisfaction dans le contexte d’utilisation spécifié.

Afin d'évaluer la formation réussie avec l'appareil « SoV », il est nécessaire de

s'appuyer sur une stratégie d'analyse comparative efficace. Étant donné que la

communauté des personnes ayant une déficience visuelle est très diversifiée et que la

mobilité des personnes malvoyantes diffère d'une personne à l'autre, toutes les

comparaisons de performance doivent être faites au niveau individuel.

Tous les utilisateurs complètent les leçons de formation accomplir trois

conditions dans l'ordre suivant :

1) avec la canne blanche seulement;

2) à la fois avec la canne blanche et l'appareil « SoV » ;

3) uniquement avec le périphérique « SoV ».

Pour s'assurer que les performances ne sont pas uniquement influencées par la

mémorisation de la scène de formation, chaque leçon comprendra une dernière et une

quatrième étape: répéter la leçon avec le dispositif « SoV » uniquement dans un

scénario similaire mais légèrement modifié.

L'environnement de formation virtuel ainsi que les tâches de formation virtuelles

seront les mêmes que lors des tests virtuels et seront également menés

progressivement.

En outre, il est important que les participants sachent qu'ils contrôlent la formation et

qu'ils évaluent eux-mêmes les progrès.

Il faut garder à l'esprit que les participants peuvent exiger un différent avec tous

les participants qu'ils n'auront pas tous le même nombre de sessions et qu'il est

important d'ajuster le temps selon le participant.

Il y a la possibilité que le dispositif « SoV » améliore la mobilité pour ceux qui

ont un plus grand déficit visuel.

Les équipes développeront le système proposé, testeront le prototype et établiront

des protocoles de formation, en commercialisant le système comme un produit final

intuitif et accessible.

Étant donné que la communauté des personnes ayant des déficiences visuelles

est très diversifiée et que la mobilité des personnes malvoyantes diffère d'une

personne à l'autre, toutes les comparaisons de performance doivent être faites au

niveau individuel.

Nos principales conclusions concernant la formation au prototype « SoV »

avancé sont centrées sur une orientation progressive et une approche de mobilité

dans des environnements de plus en plus complexes.

Les essais successifs aident le développement d'un protocole de formation des

utilisateurs et précisent les indicateurs de réussite : aussi le protocole de formation

permet aux utilisateurs d'exploiter pleinement le système.

L'étude vise à comprendre la charge cognitive et le stress émotionnel des

utilisateurs lorsqu'ils sont exposés aux sons et à la rétroaction haptique générés par

les modèles de sonification « sonore de vision » au moyen de

l'électroencéphalogramme ( EEG ) et de l'activité électrodermique ( EDA).

Les techniques de rendu audio spatial basées sur les écouteurs à la fine pointe de

la technologie s'appuient sur l'utilisation des fonctions de transfert liées à la tête

( HRTF ) qui sont des filtres particuliers qui captent les effets acoustiques de la tête

humaine. Les HRTF permettent une simulation précise du signal qui arrive au tympan

en fonction de la position spatiale de la source sonore. Cependant, l'obtention de

HRTF personnels nécessite normalement un matériel dédié, un environnement

contrôlé et un long temps d'acquisition.

Dans le cadre du projet « Sound of Vision » les chersheurs développeront un

cadre novateur pour la détermination de HRTF individuel à faible coût en fonction

de l'étude de l'oreille externe humaine. Les HRTF pour différentes formes d'oreille

seront acquis dans un environnement de laboratoire semi-anéchoïque contrôlé, y

compris un tout nouveau système de mesure HRTF conçu sur mesure (voir la vidéo

démo-time-lapse) et un mannequin KEMAR pour la recherche acoustique avec des

oreilles interchangeables. La relation entre les HRTF et les données morphologiques

– acquises par un scanner laser – sera établie grâce à des techniques d'apprentissage

par machine.

L'objectif est d'utiliser les données mesurées pour développer une méthodologie

pour déterminer le HRTF individuel directement à partir d'une représentation 3D

de la tête de l'utili-sateur.

Dans notre recherches nous abordons les effets de l'adaptation sur l'activité

cérébrale, en particulier les effets à court et à long terme de l'exposition répétée à des

stimuli particuliers.

Nous avons discuté ensuite des possibles preuves de substitution sensorielle

telles que « Sound of Vision » implique, tout en discutant enfin des preuves

d'adaptation aux change-ments dans l'environnement auditif. Ainsi nous avons conclu

que les entreprises de substitution sensorielle telles que « Sound of Vision » sont tout

à fait possibles à la lumière des preuves disponibles, ce qui est encourageant à l'égard

de ces projets.

Le projet aide de parvenir à une bibliothèque logicielle réutilisable et de

sonification :

il mettra en œuvre les méthodes de sonification avancées développées par lui-même

et il offrira une API ( Application Programming Interface ).

La bibliothèque logicielles de sonification réutilisable mettra en œuvre les

méthodes de sonification avancées, développées par le projet « Sound of Vision » et

proposera une API ( Application Programming Interface ) permettant une réutilisation

indépendante dans différentes recherches et projets, y compris quatre composants

importants pour chaque test effectué:

a ) profil d'utilisateur malvoyant ( y compris les données anonymes ),

b ) commentaires des utilisateurs concernant la recherche de performance et

d'utilisabilité,

c ) vidéo du test effectué ( soit en réel ou les environnements virtuels ),

d ) les mesures BCI associées des activations corticales.

Le projet « Sound of Vision » va fournir également un outil logiciel qui

permettra l'examen synchronisé de la vidéo et des mesures.

La base de données du projet constituera une source importante d'informations

pouvant déboucher sur d'autres recherches, par d'autres équipes de recherche,

notamment en matière de sonification mais, en plus, de dispositifs d'assistance et de

réadaptation et de neurosciences en général.

Les données automatisées rapportées seront stockées dans une base de données

étendue et complète qui peut fournir des preuves uniques sur le très grand groupe

social de personnes malvoyantes, qui peuvent se traduire par une connaissance

avancée du comportement de l'individu lié à l'utilisation de « Sound of Vision » en

tant qu'instrument ICT, le bien-être personnel et la gestion et la prévention des

maladies et les interventions personnalisées de santé comportementale.

La base de données mise à jour automatiquement avec les données d'utilisation

anonymes et les commentaires des utilisateurs : le composant du rapport automatisé,

intégré dans la fonctionnalité des périphériques permettra de rapports automatisés

des données d'utilisation anonymisées et les commentaires de l'utilisateur, même en

dehors des environnements de test dédiés du projet, et même après l'achèvement du

projet.

Je présenterais mes observations pendant les essais de l'équipement : j'avais

remarqué que les résultats des tests étaient variables en fonction :

– de l'âge des sujets ayant un handicap visuel,

– du sexe des personnes testées,
– du niveau de l'éducation, et

– de la profession de ceux qui essayaient l'équipement,
– du nombre de sessions de formation de ceux qui essayaient l'équipement.

Le long de la période d'essai, nous avons vu la ligne consécutive d'amélioration

du projet : après une certaine période de formation, l'utilisateur a été capable de

mener à bien toutes les exigences de l'exercice, il pourrait le faire dans les médias et

dans un environnement virtuel réel en utilisant le gilet / la veste haptique et IMU

d’apercevoir correctement les objets sans avoir à être guidée par la canne blanche,

utilisée qu'à titre exceptionnel.
On pourrait faire voir les statistiques ci-dessous comment chaque utilisateur a

testé finalement avec succès les produits logiciels innovants.

Nos principales conclusions concernant la formation au prototype « SoV »

avancé sont centrées sur une orientation progressive et une approche de mobilité dans

des environnements de plus en plus complexes.

La base de données sera lancée avant la fin du projet et continuera à être mise à

jour par la suite, en fonction de l'utilisation du système.

Le projet « Sound of Vision » propose la dissemination de ses concepts et de ses

résultats – brevets, ateliers, articles scientifiques, site web avec les indicateurs de

réussite : demande de brevet en conformité avec les formalités et les exigences,

participation de tous les membres du projet aux ateliers, la présentation réussie des

articles écrits, les publications ou les conférences pertinentes. Aussi il existe un site

mis à jour avec tous les résultats pertinents du projet et il est promu au public

pertinent.

Mon projet présente un cadre multimodal pour évaluer l'expérience

émotionnelle et cognitive des personnes aveugles et malvoyantes lors de la

navigation dans des environnements intérieurs inconnus basés sur la surveillance

mobile et la fusion des signaux d'électroencéphalographie (EEG) et

d'électrodéminement ( EDA ). L'objectif global est de comprendre les facteurs

environnementaux qui augmentent le stress et la charge cognitive pour aider à

concevoir des technologies de mobilité émotionnellement intelligentes capables de

s'adapter aux environnements stressants à partir des données biocapteurs en temps

réel.

« Sound of Vision » est un concept qui irait au-delà de l'état de l'art des systèmes

de la substitution sensorielle visuelle. Il a le potentiel de devenir un produit

commercial abordable qui aurait réellement aidé les personnes aveugles. Ce système

pourrait avoir un impact social impressionnant, à l'amélioration de la vie des

personnes aveugles, et aussi de leurs gardiens, créant ainsi le bien-être, l'inclusion

sociale et les soins de santé efficace et rentable.

Aussi je penserais que soutenir l’idée d’investir collectivement dans la formation

des jeunes avec un handicap c’est quelque chose d’evidemment extremement

important pour leur permettre d’accéder à l’emploi, à l’independence personnelle et à

l’accomplissement sociale.

8. Références bibliographiques

[1] Introduction aux tests du logiciel-F. X. Fornari et P. Manoury

[2]https://fr.wikibooks.org/wiki/Introduction_au_test_logiciel/Qualit%C3%A9_des_tests#Tests_fonctionnels_et_tests_non-fonctionnels -site pour Introduction au test logiciel/Qualité des tests.

[3] http://www.handipole.org/spip.php?article2747 -Article pour comprendre les déficiences visuelles

[4] Enquête Handicaps-Incapacités-Dépendance en institution en 1998. Résultats détaillés “INSEE Résultats”, n° 755-756, août 2001 – INSEE- (coll. Démographie-Société, n°83-84)

[5] Enquête Handicaps-Incapacités-Dépendance auprès des personnes vivant en domicile ordinaire en 1999. Résultats détaillés C. Goillot, P. Mormiche “INSEE Résultats”, septembre 2002- INSEE- (coll. Société », n°6)

[6] Jonathan H. Salvin, MD- Teens visual-impairement

[7] EL-HACHEM, E, (1990) OUTILS INTELLIGENTS D'AIDE A L'APPRENTISSAGE DU BRAILLE. THESE DE DOCTEUR EN SCIENCE, UNIVERSITE DE PARIS-SUD CENTRE D'ORSAY.

[8] Fondation des Aveugles et Déficients Visuels

[9] Universités LUMIÉRE LYON 2-Vie de campus, diverses aides techniques pour les déficiences visuelles

[10] Introduction au test logiciel-Philippe Ayrault

[11] Introduction au test logiciel-Philippe Ayrault

[12] La déficience visuelle : Document d’appui à l’intention des enseignants

[13] FORJA-Insertion sociale et professionnelle des personnes déficientes visuelles

[14] Le Blog des Amis des Aveugles et Malvoyants

[15] SciencesPo-Les technologies d’assitance

[16] L’écolepourtous-Agrandissement d’écran

[17] Jaws pour Windows

[18] Eradicating Non-Determinism in Tests

[19] Dijkstra E.W. «The Humble Programmer », Commun.ACM, vol.15(10) :859-866 1972

[20] Jenkins: Le guide complet

[21] https://www.guide-vue.fr/la-malvoyance

[22] alain.billeau.free.fr/D/Deficiences%20visuelles.pdf

[23] http://www.fadv.fr/aides-techniques

[24] L’article de J. Nielsen: Why You Only Need to Test With 5 Users

[25] http://www.usabilis.com/ressources/test-d-utilisabilite/

[26] : Web Accessibility in the Future

[27] Elie Sloïm, « Les nouveaux défis de l'accessibilité numérique : 1- la vision

actuelle », Openweb, 14 février 2008

[28] Elie Sloïm, « Les nouveaux défis de l'accessibilité numérique : 2- une autre

vision de la démarche », Openweb, 14 février 2008

[29] soundofvision.net – Le site du projet

[30]http://dailygeekshow.com/technologie-aveugle-vie/-Les nouvelles technologies

pour les personnes malvoyantes

[31]D.4.3-Procedure Sound Of Vision :

https://docs.google.com/document/

d/1oxNoikMkijf7gAAPh6Y5_bNlMBFTc01yiEosBM2OrD4/ edit#

heading=h.io5izqdk2xjs

[32] Sound of Vision-Usability Testing May: https://docs.google.com/

spreadsheets/d/1qdAPvRnb5sLwkosBawqEca18r3JuxRpFFxI2j

7FUYfk/edit#gid=0

[33] Sciences Po: http://www.sciencespo.fr/ressources-numeriques/node/

1942/description-textuelle/player.vimeo.com/video/31260230

[34]www.sciencespo.fr/bibliotheque/

[35]http://www.sciencespo.fr/ressources-numeriques/content/quest-ce-que-

laccessibilite-numerique

[36]http://www.tsbvi.edu/resources/1074-overview-of-technology-for-visually-

impaired-and-blind-students

[37]http://www.goodnet.org/articles/4-innovative-technologies-to-help-blind-

people-see-again

Références des figures

Fig. 1. Classification de la OMS

Fig. 2. CNAM ANACT

Fig. 3. E.GRANJEAN

Fig.4.Introduction aux tests logiciels-F.X.Fornari et P.Manoury

Fig.5. Types des tests-F.X.Fornari et P. Manoury

Fig. 5.1. Le cycle de vie du logiciel

Fig.6-9. Logiciels pour l’accessibilité -Technologie, Handicap, Accessibilité

Fig.10-19. N. QUESNOT et C. ZAMBOU „Enseignants bureautique

spécialisée”

Fig.19.1. JAWS pour Windows

Fig.20. SoV Runtime (soundofvision.net)

Fig.21. Enregistrement de l’utilisateur (soundofvision.net)

Fig22. Interface graphique (soundofvision.net)

Fig.23. Cours de formation (soundofvision.net)

Fig.24. L’accomplissement des tâches (soundofvision.net)

Fig25-26. UPB_02_RW-Plein air (soundofvision.net)

Fig. 27. Resultat du scenario (soundofvision.net)

Fig 28. Mon audiogramme (soundofvision.net)

Fig.29.Width- Largeur (soundofvision.net)

Fig.30.Width- Largeur de réponse (soundofvision.net)

Fig. 31. Corridor- essai (soundofvision.net)

Fig.32. L’application E-notes

Fig. 33. La création de la base données

Fig.34. Création de la base données-code

Fig.35-36. Création de la base données-Workbrench

Fig.37-39. Enrégistrér les utilisatéur

Fig.40-42 Résultats pour les utilisatéur et tester (soundofviosion.net :8080)

Fig.43-45. Diagramme Astah pour le projet

Fig.46. Accéder aux différents outils numériques mis à la disposition par

Sciences Po

Fig. 47. Le programme Access-Key

Fig.48. Lunettes Parler/Talking Glasses

Fig.49. Iphone

Fig.50. Lunettes de dégénérescence maculaire haute Technologie

Fig.51. Customisation App-war

Fig.52. Afficher les description des jobs

Fig.53-55. Job Detalis

Fig.56. Liste des tâches

Annexes

Questionnaire afin utiliser l'équipement Sound of Vision

Similar Posts