i-tech

Le futur imac : le iview


Le futur imac : le iview
Si vous êtes comme moi et que vous adorez tous les produits de chez Apple, vous vous intéressez surement au futur de cette marque.

Et c’est ce qu’a fait le designer « Nuno Teixera »
Fini le style rectiligne et plat, le prochain iMac sera tout en courbe, en effet son écran est incurvé et conviendra Parfaitement au champs de vision humain.

Il sera doté d’un écran tactile utilisant la technologie multitouch de l’iphone.
Pour encore plus de pratique il est doté de deux Web Cam et d ‘un deuxième écran intégré sur la face arrière qui s’avéra très pratique lors de formations ou de présentations.
Ci-dessous une vidéo du système d’exploitation dont il pourrait être doté
Espérons juste que ce projet voit le jour au plus vite


Le futur imac : le iview
Mercredi 10 Septembre 2008 - 06:13
Pierre Ulrich
Lu 7392 fois



Du plus récent au plus ancien | Du plus ancien au plus récent

52.Posté par spidermamie le 05/11/2008 10:21
Depuis que j'utilise Mac au lieu d'un PC, je trouve que c'est vraiment beaucoup plus simple,
efficace...et beau en plus!....par contre, comme le dit plus haut Pierre, quand vous achetez aujourd'hui le dernier mac, il est dépassé au bout d'un an...politique commerciale oblige..Dépassé par rapport aux nouveautés, mais reste au top pour son utilisation perso.....en tous cas, celui là à l'air dingue...ça se passe comme ça chez Mac...
On devrai créer à la Réunion un pôle de gars motivé pour créer des ordis péi!


51.Posté par giga974 le 29/10/2008 17:15
c'est vraiment chouette tout ça mais a quand les ordinateurs intégrable dans notre cerveau?????????????? cela permettrai encore plus de chose et on n'aurai plu besoin d'acheter des chose chères mais bon on a le droit de rêver

50.Posté par Coquesigru le 18/09/2008 14:40
El Geko, je ne t'en veux surement pas.

La seule seule chose qui me reste d'utilisable est mon cerveau, le reste va à vau-l'eau.

Je suis assez "intransigeant" sur les prospectives technologiques, car c'est ce qui me permet de rester actif, et ce grâce à la communauté scientifique qui ne m'a jamais laissé tomber, vraiment jamais et qui continue à me consulter,j'essaye d'éclairer sur le devenir.

Je n'ai pas toujours raison, loin de là, mais laisse moi encore un peu de champ pour que je tente d'ouvrir les yeux d'autres pour attiser leur créativité,

je crois que je ne dis pas trop de conneries, mais quand cela arrive : tire à boulet rouge, cela me stimule.

49.Posté par denis le 17/09/2008 20:47
Pour le même prix, la machine, elle fait aussi un expresso?
CREOTAS
Excellent !
Ca me rappelle ma question sur les super-telephones portables, qui font tout, même telephoner !
Est ce qu'ils lavent la vaisselle ?

48.Posté par ElGeko le 16/09/2008 17:53
En même temps, une lumière telle que Coquesigru, qui brille dans notre pauvre nuit obscure, ça fait du bien de la lire, c'est clair!
J'ai toujours bien aimé les mecs qui sont obligés d'insister sur le fait qu'ils font de la provoc, parce que sinon, personne ne la comprend.
C'est comme l'humour... ça ne se précise pas.
Comme l'intelligence aussi, évidemment, mais là, je préfère laisser la parole à un tel spécialiste que Coquesigru, qui en a tellement "naturelle" qu'il se spécialise maintenant dans "l'artificielle"!!!

47.Posté par Pierre Ulrich le 16/09/2008 17:17
la certitude existe t-elle vraiment ? aujourdhui la science evolue tellement vite, et de plus en plus on trouve des explications théoriques differentes les une des autres.
Pour moi on ne pourrat pas parler de certitudes fondées tant qu"il y'aura des questions existentielles: la mort ? la spiritualité ?
désolé c'etait mon petit quart d'heure philosophique

46.Posté par Coquesigru le 16/09/2008 14:09
Je n'ai pa pu résister : Comme Gutenberg est le père de l'imprimerie?

Bel esprit scientifique : c'est incontestable ((=:)>°.

Volontairement je fais de la provocation, car l'obscurantisme plein de certitude de Monsieur ElGeko, ne pourra résister. à répondre ses banalités.

Seul le doute fait progresser, la certitude finit en dogme.

45.Posté par ElGeko le 16/09/2008 13:24
So what?
On ne parle pas du résultat du test, on parle du fait qu'Alan Turing est considéré comme l'un des pères de l'IA.
Que son test soit validé ou pas, ça ne change rien. Il est à l'origine de cette notion, c'est juste incontestable.

44.Posté par Bill Vesée le 16/09/2008 12:08
Test de Turing

Scientific american : Les travaux de Ford et Hayes ont montrés que le test de Turing menait les chercheurs sur l'Intellangence Artificiel sur une voie sans issue.

43.Posté par Bill Vesée le 16/09/2008 11:55
Le test de Turing

Scientific American : Les travaux de Ford et Hayes qui ont démontré que le test de Turing menait les chercheurs travaillant sur l'Intelligence Artificiel sur une voie sans issue.


42.Posté par ElGeko le 16/09/2008 10:03
@ BILL VESÉE: c'est pourtant simple de vérifier ce que l'on affirme avant que de l'écrire.

******TIRÉ DE WIKIPEDIA*******
Travail sur les premiers ordinateurs ; le test de Turing

De 1945 à 1948 il [Alan Turing] travaille au laboratoire national de physique de Teddington au Royaume-Uni, sur la conception de l'ACE (Automatic Computing Engine - Calculateur Automatique). En 1949 il devient directeur délégué du laboratoire d'informatique de l'université de Manchester, et travaille sur la programmation de l'un des tout premiers véritables ordinateurs : Manchester Mark I. Lors de la conférence marquant l'inauguration il propose une méthode de preuve de correction de programmes fondée sur des assertions[5] (voir logique de Hoare) qui préfigure la méthode connue sous le nom de méthode de Floyd-Hoare. Pendant ce temps, il continue à produire un travail de réflexion fondamentale, et dans l'article « Computing Machinery and Intelligence » (Mind, octobre 1950), Turing explore le problème de l'intelligence artificielle et propose une expérience maintenant connue sous le nom de test de Turing dans une tentative de définition d'un standard permettant de qualifier une machine de « consciente ».
**********FIN DE CITATION**********

41.Posté par Bill Vesée le 16/09/2008 08:33
Après l'Assembleur de nombreux langages ont été développés à travers le monde, aussi surprenant que cela paraisse très peu l'ont été aux USA. Tout d'abord compilés, ils ont été par la suite pour beaucoup des langages interprétés.

Le LISP a été développé dans les labos du MIT par l'équipe de John MacCarthy. C'est lui qui a présenté le concept de l'Intelligence artificielle lors d'un congrès à Pittsburg à la fin des années 50. Alan Turing est mort en 1953 ou 1954, il n'a jamais évoqué l'intelligence artificielle, à ma connaissance.

Un langage informatique français a existé, mais il n’a pas percé.

Le Général de Gaulle avait entériné le rapport Ortoli en lançant le plan calcul pour permettre à la France d’être un peu plus autonome, les USA ayant refusé de livrer un gros ordinateur destiné à l’armée. Nous n’avons pas été les seuls à vouloir cette autonomie, les Japonais (MITI), les Russes, etc… on fait leur « plan calcul ».

Si la plupart des évolutions sont brevetés aux USA, ce ne sont pas toujours par des chercheurs US mais des chercheurs qui viennent de tous les pays du monde (Le brain drain).

Internet a été un facteur d’accélération, mais il y avait des projets identiques dans d’autres pays. La puissance économique d’un pays de plus de 300 millions d’habitants a favorisé le monopole. Quand vous avez l’espoir de vendre un produit en France, vous avez un marché 5 à 6 fois plus important aux US, sans parler de l’anglais qui élargit le marché.

A suivre...

40.Posté par Pierre Ulrich le 16/09/2008 00:55
pourquoi un tel développement du coté des USA et pas du coté des français?
pour moi il n'y a qu'une solution possible: le développement de nouvelle technologie destiné a un usage militaire qui par la suite se démocratise sous une forme moins évolué pour un usage publique !
exemple: Le système GPS, a l'origine créer pour un usage militaire et réutilisée pour le grand public avec une précision moindre !

39.Posté par ElGeko le 15/09/2008 22:52
@Coquesigru: never mind.


@Pierre Ulrich: Le language informatique n'est Anglais que parce que ce sont les USA qui ont développé les ordinateurs (avec l'Internet aussi évidemment).
Rien n'empêche de développer des interfaces vocales en FR si l'on veut vraiment. Mais en effet, la langue (syntaxe, grammaire, orthographe) FR est bien plus complexe que l'US.
Et le marché nettement moins important, bien que la langue FR soit bien répandue à travers le monde.

38.Posté par Pierre Ulrich le 15/09/2008 21:28

Les interfaces vocales sont déjà bien développées 'in english'
Le français serait-il une langue si difficile à mettre en place ?
Je pense que c'est comme tout, prenons l'exemple du langage informatique tout ce qui dit 'Programmation', vous connaissez un langage 'Français' ?
Ah la la ces Anglais alors!

37.Posté par Coquesigru le 15/09/2008 20:15
Yes, you are quite good.

A mon âge le mélange des lettres, ou pire : l'impression d'avoir écrit un mot et c'est un autre que l'on a produit. Mon quiet good, était peut-être le seul objectif du quiet. So sorry.

36.Posté par ElGeko le 15/09/2008 19:06
J'ai bon dos, on dirait.

35.Posté par Coquesigru le 15/09/2008 13:01
Sédolé, vous ne faites nerve des mistakes de frappes.

34.Posté par ElGeko le 15/09/2008 11:01
Alors... déjà... on écrit "it is quite good news" et non pas "quiet" qui veut dire "tranquille"... ;)
(je précise juste puisque nous parlons de ceci dans ce fil, c'est donc justifié je pense. Sans offense bien évidemment).

Ensuite, je ne suis pas négatif, j'essaye d'être réaliste. A mon âge, j'ai finit de croire au Père-Noël. Depuis le temps que je suis dans le domaine informatique, j'ai aussi finit de croire en n'importe quelle rumeur, annonce à venir, etc... Mais je suis loin d'être négatif, je t'assure.

Enfin, il me semble que c'est plutôt le privé qui s'occupe des technos dont nous parlons ici (vocalisation FR et interfaces) donc l'obscurantisme n'est pas vraiment de mise dans ces milieux, bien au contraire j'imagine...

33.Posté par Coquesigru le 14/09/2008 20:32
But, it is quiet good news.

Mais comme "vous êtes négatf, vous y croyez tant au "Well to"do""français. Vous oubliez peut-être que la recherche française est sclérosée, non pas par la créativité des chercheurs, mais l'obscurentisme des mandarins sortants des grandes écoles (X, mine, Cetrale...et universités) qui cannibalisent la créativité pour satisfaire leur égo.

Et puis arrêtons ce "discours "de " spécialistes ou experts comme aiment le penser les français. Moi ce qui m'intéresse, est de savoir que demain matin (non pas après demain) la technologie va arriver. Le marketing, je m'en balance et je n'ai pas de précarré à protéger, alors!

32.Posté par ElGeko le 14/09/2008 17:41
Ben nous verrons donc!
En même temps, en Anglais ce n'en est pas un, en Français, nettement plus, dirait-on.

31.Posté par Coquesigru le 14/09/2008 11:56
Pour info : Les fréquences (ondes électromagnétiques) de la prochaine génération de microprocesseurs seront des supérieures au terahertz, cela peut laisser rêveur. La reconnaissance vocale n'est plus vraiment un problème.

30.Posté par Coquesigru le 14/09/2008 08:56
ElGeko, vous avez raison il fallait être optimiste et ne pas le quitter, surtout quand Experts group c'est imposé (jpeg).

Mais le numérique s'imposait, car le mixage Index, texte, son et image était plus que très lourd à gérer, c'est pour cela qu'il fallait avancer vite sur le numérique en particulier pour gérer les réseaux .

La technologie RISC que nous mettions au point ans notre labo, nous ouvrait des voies plus nettes vers la compression numérique.

29.Posté par ElGeko le 13/09/2008 17:56
@COQUESIGRU: Bien, wait & see donc, quant à ces nouvelles interfaces de saisies...

Quant au "tout numérique à fin des années 80"... wow... fallait être gonflé (drôlement optimiste) pour y croire vu le temps nécéssaire à l'élaboration de normes communes (ou "standards"), à la fabrication des matos (des usines à faire sortir de terre), au temps de R&D nécéssaire, à l'évolution des technologies, et surtout... à l'adoption par le grand-public (donc une production des matos à moindre coûts).

Et si on regarde aujourd'hui, avec le recul, on se rend compte que —tout-de-même— tout cela est allé assez vite.

28.Posté par ElGeko le 13/09/2008 17:51
Heu... je parlais du modèle que tu présentais (le Mac iView arrondi) lorsque je parlais d'une étude de style qui ne verrait jamais le jour.

En ce qui concerne la techno "TOUCH", Apple a déposé un paquet de brevets qui —effectivement— traite du multitouch, et on sait bien qu'ils nous préparent un subnotebook de la mort qui tue! ;)

Comme je disais, pour tout ce qui est portable, le multitouch est une avancée qui ne fait que démarrer, on est d'accord là-dessus.

27.Posté par Pierre Ulrich le 13/09/2008 16:35
Je continu à penser que ce "projet" a des chance d'aboutir !

"si l'on en croit un autre article de la BBC: “on s'attend à ce que les interfaces tactiles se répandent dans la plupart des produits d'Apple... d'ici 3 à 5 ans”. Et au-delà de la firme de Steve Jobs (le cofondateur d'Apple), elles se diffusent aujourd'hui aux baladeurs, aux ordinateurs, aux téléphones portables, voire aux téléviseurs..."


source: http://www.techno-science.net/?onglet=news&news=5782




26.Posté par ElGeko le 13/09/2008 15:35
Il n'a aucune chance d'aboutir, non.
C'est une vue de l'esprit, une étude de style faite par un designer, sans plus.
http://www.yankodesign.com/2008/02/29/curved-imac-has-your-back/

25.Posté par Coquesigru le 13/09/2008 15:06
ElGeko, nous n'aurions de post aussi "enflammé" si nous n'étions pas passioné.

Je ne parierais pas, pour la simple raison que j'aurais parié en 1975 que le tout numérique serait une réalité a la fin des années 80, et j'aurais perdu de très grosses sommes. Je gagnais bien ma vie comme chercheur, mais je n'ai jamais eu la manne des royalties, mon labo étant sponsorisé par de grands constructeurs qui, rassurez-vous, ont su déposer des brevets (pour mes "trouvailles" et d'autres bien sur) avec l'argent qu'il fallait au bout. Je n'en tire aucune amertume, car j'ai toujours eu les moyens nécessaires pour avancer, AUCUNE contrainte.

Concernant la souris, je pense comme vous que le clavier disparaîtra avant la souris, mais on ne sit jamais!

De nouelles interfaces de saisies vont arriver, et là malheureusement, je suis obligé de ma taire au nom de la sacro-sainte loi du "licence" (brevet).

24.Posté par Pierre Ulrich le 13/09/2008 12:23
pas de prix, pour le moment ca ne reste qu'un projet, meme si il a beaucoup de chance d'aboutir trés prochainement !

23.Posté par Janfoutsa le 13/09/2008 12:11
De la balle ! Effecivement aujourd'hui, comme la wii, les jeux vidéos et autres loisirs de salon interactifs nous veulent du mouvement. Parfait. On va s'amuser, se faire plaisir et se bouger le derche !!!

Petite question, peut être que la question a été posée plus haut, mais pas le temps de lire: ça coute combien ??? C'est un élément indispensable aujourd'hui !!!

Cependant Pierre, quel succès, tes articles sont lus et appréciés

22.Posté par ElGeko le 13/09/2008 12:03
@CREOTAS et COQUESIGRU: pardonnez, par avance, mon ton qui pourrait sembler aggressif. Je suis passioné, c'est tout! :)

Je suis prêt à parier ce que vous voulez (tous les 2) que dans 20 ans, on utilisera encore principalement— la souris. (Pour le clavier, c'est nettement moins sûr car comme je le disais hier, la parole pourrait remplacer facilement la frappe clavier, dès que la puissance de nos PC sera suffisante —et que des softs gérant la langue FR seront dispos— ce qui va arriver évidemment).

Moi aussi je suis intéressé parce qui va arriver, évidemment. La SF est mon genre littéraire favori, depuis toujours. Mais je vis dans le présent, dans le concret, dans le réel. Et dans cet espace-temps précis, je maintiens que le TOUCH ne sera jamais l'interface de choix pour piloter des ordinateurs de bureau (attention que je pense que c'est —par contre— parfaitement adapté aux appareils mobiles). Et j'ai déjà donné les raisons qui expliquent mon avis. Et franchement, se laver les mains avant chaque utilisation de son écran... ça me fait bien rire, hein!
Par ailleurs, le iView d'Apple n'est absolument rien d'autre qu'une esquisse en 3D issue de l'imagination d'un artiste de SF justement.

21.Posté par Pierre Ulrich le 13/09/2008 10:33
vous avez deux solution !
- vous enfermez vos marmailles dans un placard, comme ca il ne subiront plus de tentations.
- vous devenez plus ferme avec eux et leur aprennez certaine valeur.

Loin de vouloir donner une leçon de moral, je pense juste que ce commentaire s'eloigne un peu du but premier de l'article qui est de faire decouvrir au public local les nouvelles technologies.

20.Posté par belana le 13/09/2008 00:28
j'ai mis 1 comme note.Je m'explique, j'ai 2 grands marmailles et je ne veux pas qu'ils viennent m'ennuyer pour leur anniverssaire ou les fetes, tout simplement parce qu'ils ont lu des sujets comme ci-dessus, qui vident le "porte monnaie": eux c'est je veux tout, et je ne gagne rien: maman.com.C'est peut etre pas intelligente de ma part, mais c'est ma logique et ca me suffit.Les enfants d'aujourd'hui, ils veulent tout mais c'est maman.com qui paye.

19.Posté par Pierre Ulrich le 12/09/2008 22:00
chacun à son opinion ici, je ne pense pas que qui que ce soit ai voulut agresser l'autre, mais tout simplement affirmer ses convictions !
Voila un petit article qui parle de l'éventuelle disparition de la souris ;)

http://www.techno-science.net/?onglet=news&news=5782

18.Posté par CREOTAS le 12/09/2008 21:35

El Gecko, je ne prends position sur rien. Je pose des questions c'est tout.

Et si tu as bien lu mon commentaire, tu auras bien lu et compris que le clavier souris me convient très bien (souris avec un fil, eh oui, les bonnes vieilles méthodes).

Mais quand on voit le clavier lumineux présenté justement dans un autre article par Pierre Ulrich, et quand on voit comment ça se passe (concurrence, course à l'innovation pour enlever un marché.....), les innovations technologiques qui se succèdent de façon presque exponentielle et se 'remplacent' les unes les autres (des premiers ordis à lampes on est passé aux transistors, puis aux puces, ....., des moniteurs à tube cathodique, aux écrans plats et bientôt aux projections,...... etc etc), et ne parlons pas des logiciels, on sent bien que le clavier souris (qui n'est déjà plus avec fil) va évoluer et ne durera pas bien longtemps ....

Je pense que le pc de demain (à 5-10 ans) n'aura plus de clavier et encore moins de souris.. Il n'y aura plus qu'un boîtier, et qui intégrera bien sûr de multiples fonctions: téléphone TV, internet, fax, projecteur, caméra sécurité, détections d'objets ou de mouvement, bureautique, calcul, esthétique, culture...... (il pourra aussi télécommender mon expresso..... ;-p) et peut-être avec un boîtier unique pour tout téléguider, à moins que pour les plus évolués, la voix ou le regard..?

Les écrans risquent de vite disparaître et les projections lumineuses les remplaceront peut-être: résultat, ça coûtera presque rien....!

Donc le I-View de apple est peut-être pas si I-diot que ça, et il faudra peut-être dans un premier temps se muscler nos petits bras.... :-)

Voilà pourquoi je lançais des pistes, n'étant toutefois nullement spécialiste.

Mais si quelqu'un veut engager un combat d'idées et la ramener ici, je sors mon rayon laser à impulsions électromagnétiques et sonores à métadébit, et je le téléporte, attention!

:-))

17.Posté par Coquesigru le 12/09/2008 21:19
El Geko,désolé d'avoir été aussi virulent, mais je suis plus intéressé à ce qui va se faire, que ce qui existe aujourd'hui. L'existant avait été conceptualisé il y a quelques dizaines d'années.

Quand je parle de ce qui va se faire, je parle de ce qui est dans les cartons où déjà dans un état fort avancé de développement dans les labos, en attente d'industrialisation. Ne m'en veuillez pas, j"en suis réduit à la veille technologique pour vérifier que nos concepts deviennent réalité.

16.Posté par Coquesigru le 12/09/2008 20:43
C'est votre boulot "de 20 ans d'informaticien" à pisser de la ligne (comme un clerc de notaire) pour créer l'ergonomie qui permettent de faire ce que vous suggèrez. Moi, j'étais plus passionné par comment accélerer la vitesse des process et ce que cela allait pouvoir permettre.

La préoccupation de la recherche est d'aller au delà et à chacun ensuite de développer,ce que bon lui semble. Il y a toujours des objectifs et des utopies.

Vous oubliez que l'mportant c'est de suivre des pistes, elles ne sont pas toutes bonnes. Tenez, j'ai un exemple :

En 1981, Je suis allé à Stansted rencontrer des chercheurs qui travallait sur le développement d'un écran plasma. Leur résultat était plus que satisfaisant, Leurs interrogations étaient l'outillage et les coûts de production par rapport au LCD (déjà), non pas l'usage, l'usage était évident.

La partie humoristique : Heureusement Thomson s'est emparé de cette technologie, comme la piste du HD2Mac, il y avait des informaticiens de 20 ans d'expérience et de haut niveau chez Thomson.

Bon d'accord le plasma est en fin de course, mais pourun scientifique cela a permis de vérifier des hypothèses.

ElGeko, je ne vous prend pas pour un imbécile, mais réfléchissez un peu avant d'être aussi catégorique dans vos opinions.

CREOTAS, rassurez-vous, il y a beaucoup de labos qui travaillent sur l'interface cerveau/ordinateur et il y a des choses formidables en développement, mais comme vous le dites si bien : Brevet for monney, et c'est malheureusement un des"freins".

15.Posté par Pierre Ulrich le 12/09/2008 18:52
Creotas , Pourquoi "Multi" touch ?
Tout simplement parce qu'on peut interagir avec le système en décrivant des actions avec les deux doigts (ou mains).
Prenons l'exemple d'un tablet pc: on ne pourrait que cliquer avec un doigt ou un stylet alors qu'avec le système multitouch inventé par APPLE (pour l'iphone) l'écran reconnait l'interaction des deux doigts et interprete ses mouvements. eloignement des deux doigts = zoom arriere et inverse proportionel, deux doigts collé qui montent et qui descendent = scrolling vers le haut etc...

Niveau propreté de l'écran, je pense que par logique avant de taper au clavier vous vous nettoyez un minimum les main ? et puis si l'écran est assez lumineux et assez bien pensé, je ne pense pas que des trace aussi gênante que ça puisse apparaitre.... reste a voir !

pour la vidéo, je suis désolé mais aucune information sur les logiciels utilisé, Sinon ca aurait été pour moi un grand plaisir de vous présenter le produit :p

N'oublions pas que ça ne reste qu'un projet pour le moment et que l'avenir nous en dira +

14.Posté par ElGeko le 12/09/2008 18:48
@CREOTAS: Pourquoi vouloir remplacer à n'importe quel prix une interface fonctionnelle, bien rodée, qui fonctionne depuis des dizaines d'année, j'ai nommé: la souris et le clavier?

Quand on étudie un peu ce qui fait une interface informatique on n'essaye pas d'inventer n'importe quelle solution "autre" juste pour faire joujou avec un ordi!

Quel intérêt, donc, aurait un utilisateur à utiliser sa rétine pour piloter un ordi? (je ne parle évidemment pas d'un handicapé, là).
Irait-il plus vite?
Comment ferait-il pour piloter et regarder son écran, en même temps? Avec un clavier/souris, je peux ne par regarder l'écran et continuer à frapper un texte, par exemple (truc de base d'une secrétaire), pourrais-je en faire autant avec une interface "rétinienne"?
Est-ce que ça ne demandera pas plus de concentration d'utiliser son oeil pour —AUSSI— piloter un ordi (en plus de faire ce pour quoi il est fait au départ).
Quid des conjonctivites chroniques avec cet effort imposé à l'oeil?

Etc...

Idem pour les rayons lumineux: quel avantage pour le user? Réellement? Irait-on plus vite? Serions-nous plus précis qu'avec nos doigts sur une souris? Pour quel soft exactement?

Enfin, la technologie TOUCH n'existe pas que sur l'iPhone.

HTC sort des smartphones avec du multitouch (et sous Windows Mobile, attention).
Nokia et Sony-Ericsson aussi, arrivent (sous Symbian).

En matière de PC, HP vient de sortir son TOUCHSMART qui est une espèce d'iMac (Apple) sous multitouch (et il a l'air vraiment cool).

Bref, ça vient.

Mais comme je disais, autant cette techno est totalement adaptée aux portables (phones, notebooks, GPS, ce genre de matos, vu qu'on doit les porter d'une main pendant qu'on les utilise de l'autre) autant il me semble très mal adapté à l'utilisation de PC de bureaux!

13.Posté par ElGeko le 12/09/2008 18:33
T'es gentil Coquesigru, mais ne me prend pas pour un demeuré non plus.
Ca fait 20 ans que je bosse dans l'informatique et je pense savoir un peu de quoi je parle, merci.

Aucun ordinateur personnel (grand public) ne fonctionne vocalement, non. Ce ne sont pas les 2 ou 3 pauvres softs censés le permettre qui autorisent —aujourd'hui— une utilisation complète d'utilisation d'un ordi, au contraire d'une souris et d'un clavier.

Puisque tu sembles si au courant, vas-y, explique-nous comment remplir une feuille de calcul Excel, détourer une image dans Photoshop, jouer à n'importe quel jeu, aller sur ton site bancaire et faire la moindre opération... bref, faire *N'IMPORTE QUOI* (à part éventuellement dicter et/ou lire un texte) en vocal!!!
Je te souhaite bonne chance là.

Je me fous un peu que le principe fonctionne depuis 20 ans, comme tu dis. Moi, je te parle de ce qui marche. Et je parle de ce qui marche pour l'ensemble de la population, pas pour compenser tel ou tel handicap, attention!
C'est très bien que certaines technos puissent autoriser les aveugles à se connecter au Web, ou tel paralysé à "cligner" sur un clavier virtuel... mais ça ne fait pas de ces technos des réalités commerciales, ou industrielles: ce ne sont que quelques expériences et elles sont à des années-lumières de ce qui est pratique et fonctionnel.

Le TOUCH existe aujourd'hui, il est commercialisé sous divers supports, et il ne remplace EN RIEN la bonne vieille interface classique de la souris et/ou du clavier. Et ce n'est pas demain que ça changera, crois-le.

Et par ailleurs, tu ne réponds pas sur l'énergie à déployer pour utiliser -en continu- le TOUCH!
Tu vas te faire greffer des bras en titane, c'est ça? Sous prétexte qu'aujourd'hui, on peut déjà se faire greffer une main, ou un visage, ou une pile cardiaque?

Soyons un peu sérieux, merci...

12.Posté par CREOTAS le 12/09/2008 17:53
Pas de pb Pierre Ulrich. Je suis toujours intéressé par la technologie. Et bravo d'avoir compris mon humour, qui cache, à un novice, mon intérêt.

Mais comme je suis sur MS, Apple pour moi c'est une autre planète que peut-être un jour j'habiterai? Même si pour diverses raisons, je suis loin d'être fana de MS.

Ainsi, le MultiTouch pour moi c'est du latin, sauf que ça doit vouloir dire toucher avec le doigt au lieu de cliquer je suppose'. Mais pourquoi « multi » ? Et côté propreté écran après toutes les « touches », comment on fait (comme le fait remarquer à juste titre El Gecko)?

Et les 2 caméras, à quoi ça sert ? Une suffit non ?De même l'écran arrière, en principe, dans les formations, le formateur a son propre PC relié à celui du formé non ?

Quant à savoir s'il faudrait ou non acheter et quand, bonne question mais à mon avis insoluble, compte tenu notamment de la loi de Moore. Effectivement , la location paraît un bon moyen. Tout dépend ensuite du tarif, car vu le prix du matériel informatique actuellement, les loyers devraient être faibles pour être attractifs.. Peut-être que la formule de la location n'est pas rentable'?

En tous cas, une idée à creuser au plan économique pour les éventuels entrepreneurs locaux ou pour les collectivités. Pourquoi personne n'en parle ?

Et pour le prix, qui devrait « taper » assez haut, je pense qu'à la réflexion je ne suis pas vraiment intéressé par le truc. Mon petit pc « de base » est déjà bien . :-((

Par contre, je trouve qu'il aurait été utile que l'article fasse un résumé, même court, du ou des logiciels pour lesquels il y a la démo sur vidéo..... Dommage, car la vidéo est un peu longue et sans commentaire. Ca aurait pu aider les « blaireaux » comme moi qui ne connaissent même la technologie « touch » d'Apple non ?

Ceci étant dit sans vouloir éreinter ou décourager l'auteur de l'article qui alimente cette rubrique, bien sûr.

Enfin, El Gecko et Coquesigru, n'y a-t-il pas aussi des possibilités plus grandes de piloter des interfaces avec l'oeil, encore moins fatigant et plus rapide que la voix? Ou avec un rayon lumineux à la place du doigt et du bras? Rayon dirigé par la main ou réfléchi sur la rétine de l'oeil?

Euh,pour les brevets, je prends 50 % .... :=)))

11.Posté par Coquesigru le 12/09/2008 13:43
Mais qu'est-ce que vous croyez ElGeko, il y a longtemps que la reconnaissance vocale est en développement et que cela marche (1975/76). Le problème qu'il restait à résoudre, il y a 20 ans, était qu'à partir de l'empreinte initiale de la voix reconnue, les systèmes puissent évoluer avec les différentes transformations de la voix d'un même individu : rhume, maux de gorge, mue, etc... Par exemple les labos du Cavendish College ont très progressés. Pour votre info, le moins difficile à traiter pour nombreux scientifiques a été l'isolation d'un voix parmi d'autre. L'empreinte vocale n'est pas aussi précise que l'iris ou l'empreinte digitale mais elle est acceptable dans un pourcentage d'erreur inférieure à 10%.

Pour en ajouter une couche, la vitesse de modélisation de la voix était également liée à la mise en service du SSD (Qui existe en bêta test depuis 1991). L'accès sur un support dynamique a toujours été un ralentisseur du traitement.

Mais entre la Recherche appliquée, l'industrialisation et commercialisation, il y a des délais d'amortissements de l'existant, de création de nouveaux outillages, de formation. Après vient l'aspect marketing qui est loin d'être négligeable.

Dans la technologie, le plus difficile est l'appropriation de nouvelles ergonomies (la souris n'a pas fait tout de suite des millions d'adeptes, il y avait même de sérieux résistants).

Il y a toujours des "pionniers" pour se lancer et communiquer leur enthousiasme, c'est là dessus que compte en partie les constructeurs..

Personne ne vous obligera ElGeko a utilisé le touch. Mais à ce propos, vous ne pouvez savoir à combien d'handicapés le touch (en appli. public depuis 1983) a rendu service.

Vous avez le droit d'être opposé à un progrès et d'en souligner les éventuels inconvénients que vous y voyez, L'exemple que je donnais sur le numérique était pour illustrer votre réflexion sur le touch : scepticisme.

Le scepticisme, que c'est facile de s'y réfugier.


10.Posté par ElGeko le 12/09/2008 11:51
@Coquesigru: rien à voir là!
Le numérique, c'est tout un ensemble de technologies, c'est un domaine industriel et commercial entier!
Le "touch", c'est une voie parmi des dizaines d'autres permettant de piloter des interfaces!

Je suis sûr qu'il y a 300 ans, personne n'aurait cru à une machine qui volerait en transportant des passagers!!!! C'est juste n'importe quoi comme argument donc.

Par ailleurs, essaye de t'imaginer, toute la journée, sur un grand écran, à manipuler une interface tactile à bout de bras! C'est débile (un écran devant se trouver, justement, à longueur de bras pour ne pas te crâmer les yeux)!
En plus, tant que les écrans ne seront pas auto-nettoyants, ou tant que tes doigts ne le seront pas, tu passeras nettement plus de temps à nettoyer ton carreau, crois-moi!

Si une interface doit se développer vraiment, un jour, c'est uniquement la voix, et sûrement pas l'utilisation d'une énergie limitée comme celle que nos bras peuvent fournir!

9.Posté par Coquesigru le 12/09/2008 07:38
Evolution des technologies :

La solution d'incrémentation au fur et à mesure des évolutions technologiques sans remplacer l'ensemble d'un équipement a été étudié par beaucoup de constructeurs, mais cela pose plus de problème que de remplacer l'ensemble.

C'est parfaitement vrai, des consommateurs sont prêt à payer très cher le dernier"cri". Pour les constructeurs c'est une aubaine, car ils peuvent amortir plus vite leurs coûts de "recherche".

J'ai mis recherche, le mot évolution d'une même technologie serait plus approprié, car tous les jours on ajoute un petit plus à l'existant, c'est pour cela que les constructeurs sont dans une course effreinée, Leurs produits s sont dépassés le jour du lancement de leur tout dernier modèle.

Cela montre l'importance dela veille technologique si délaissé par les industriels français.

8.Posté par Boyer le 12/09/2008 07:16
Quand je fais le bilan des blocages dans vista, (tous mes drivers et peripheriques qui ne fonctionnent plus), quand je lis que la formatage ne suffit pas pour ré-installer xp, je reflechis sérieusement à passer sous mac.

7.Posté par Pierre Ulrich le 11/09/2008 23:54

Creotas! je n'ai pas mentionner de prix dans mon article, comme toutes nouvelles technologies, j'imagine qu'elle aura un cout, mais je pense que ce type de machine sera tout dabords utilisé dans le milieu professionnel avant de se démocratisé pour le grand public.
le problème principal que l'on rencontre en informatique, c'est l'évolution trop rapide des technologies (allez y comprendre quelque chose) ! on achete un produit qui deux semaines plus tard serat dépassé, et ceux qui aiment ça achetent et achetent sans cesse en payant plein pot des produits qui seront dépassé encore et encore!
A quand une entreprise qui proposerait de la location de matériel au particuliers? Un abonnement mensuel qui permettrait de changer de machine a chaque évolution sans se ruiner et entasser inutilement des tonnes et des tonnes de matériel !

En tout les cas, c'est un plaisir de savoir que ça intéresse certaines personnes de me lire tous les jours, et n'hésitez pas, je suis ouvert a toute critique !

6.Posté par Trouillomètre au maximum le 11/09/2008 23:00
Que deviendraient Porte et Fenêtre si il n'y avait pas des gens capables d'imagination sur qui copier ?

5.Posté par CREOTAS le 11/09/2008 22:05
Blague mise à part, bravo pour la rubrique!

4.Posté par CREOTAS le 11/09/2008 22:04
Pour le même prix, la machine, elle fait aussi un expresso?
C'est sûr que ça arrondit les angles dans la vie .... virtuelle! Mais impossible de tout "mettre à plat"....!

En tous cas, c'est impressionnant: bientôt, en se grattant ou en tuant un moustique, on créera involontairement.un van gogh ou un picasso ...

Mais pour les gens qui utilisent encore réellement leurs mains (dans la vraie vie quoi), on ne voit pas à quoi ça peut servir (genre mécanos, agriculteurs, artisans.... pour produire concrètement), pas pour gérer ou concevoir, parce que là, ils pourront délirer entre les cartes, graphismes, comptes, dessins......

Et vive Google (voir You Tube), le géant invisible qui voit tout et enregistre tout de ce nouveau et futur monde de Minority Report...!

Signé: un terrien (ou pas grand chose en tous cas) :-)))

3.Posté par Coquesigru le 11/09/2008 20:28
El Geko, cela me rappelle un mauvais souvenir vos propos : le rapport sur l'avenir de l'informatique de Norah-Mink (Mink toujours vivant) qui écrivait en 1983 que le numérique n'avait aucun avenir.

1 2
Nouveau commentaire :
Twitter


Dans la même rubrique :
< >

Jeudi 25 Septembre 2014 - 11:00 L'iPhone 6 arrive à la Réunion

4, cité Fontaine
97400 Saint-Denis

06 93 010 810
contact@zinfos974.com


- Contact

- Signaler un abus

- Mentions légales