Archive pour la catégorie ‘Evolutions’

Le JdG contre la défaite culturelle française

lundi 21 novembre 2011

Ah, vous en avez sûrement entendu parler, du discours très volontariste de notre cher Président, lequel annonce de nouvelles mesures pour protéger la culture empêcher le piratage. Après (ne pas) avoir enrayé le trafic P2P, puis (ne pas) avoir fait diminuer le téléchargement direct, voià que ce brave Sarko va (ne pas) attaquer le streaming.

Les mots manquent souvent face au désert intellectuel des nos dirigeants face à la révolution numérique. Certains comparent l’internet à un duplicateur-téléporteur : on copie des fichiers à l’infini et on les expédie où on veut en quelques instants. Imaginez une minute qu’on invente une machine qui fasse pareil avec les objets : le concept-même de propriété privée (et celui de monnaire) volerait en éclats, et il serait totalement illusoire pour les gouvernements d’empêcher les gens de s’en servir, même sous la pression des industries de fabrication et de transports dont la ruine serait inéluctable.

Plutôt que de me lancer dans un long texte qui aurait de fortes chances d’être décousu par manque de temps, je préfère vous renvoyer vers la lettre ouverte publiée aujourd’hui par Le Journal du Geek. Elle appuie là où ça fait mal, à savoir les caues de la défaite de nos élites face aux challenge de la culture numérique, ainsi que pourquoi il leur est encore possible de se rattraper, avant que le tout-privé ne le fasse de manière totalement non-encadrée, avec tous les risques que ça suppose.

Bonne lecture !

Facebook a fin par trouver son “S”

jeudi 27 janvier 2011

Tiens, comme c’est étonnant…

Le premier, parmi les lecteurs de ma note précédente, qui trouve le lien entre le piratage du compte de Mark Zuckerberg et l’activation par défaut du protocole HTTPS sur Facebook gagne… hummm… on va dire toute mon estime !

Journalistes, protégez vos données !

mercredi 27 octobre 2010

Et de trois ! Trois cambriolages quasi-simultanés chez des journalistes de trois journaux ayant tout particulièrement suivi l’affaire Bettencourt : Le Monde, Le Point et MediaPart. À chaque fois, c’est un ordinateur portable ou un disque dur externe qui a été dérobé. Jolie performance !

Le débat qui consiste à se demander si cela tient de la tarte à la coïncidence n’aura pas lieu ici (faut-il être un dangereux paranoïaque pour imaginer un tel complot, bande d’inciviques !). Non, ce qui m’intéresse ici, c’est que peut-être enfin va-t-on poser aux yeux du grand public le problème absolument fondamental de la sécurité des données.

On ne sait pas si les journaliste visés par ces vols avaient une stratégie de protection de leurs données, et ils ont tout à fait raison de se garder de le dire. Mais j’espère vivement que c’est le cas. Quand on travaille quotidiennement sur des données confidentielles, voire compromettantes, et pour lesquelles les fichiers informatiques ont force de preuve, on ne peut pas se permettre ni de s’en retrouver dépossédé, ni qu’ils tombent entre de mauvaises mains.

Dans un tel contexte, sauvegarder ses données et en rendre la lecture impossible est un DEVOIR, et je n’hésierai pas un instant à qualifier d’incompétent un journaliste qui ne s’intéresse pas à des outils de protection. Surtout que depuis quelques années, ceux-ci sont devenus très accessibles, et même gratuits pour certains.

Pour ceux qui n’ont pas encore lu mon petit tutoriel en trois parties et qui ne connaissent pas déjà TrueCrypt, voici une nouvelle chance de rattraper une inculture qui pourrait vous coûter cher… et pas seulement si vous êtes journaliste !

De la VGM à l’insu de votre plein gré

samedi 6 mars 2010

Il aura fallu attendre 2010 pour que ça arrive. Une musique de jeu vidéo a été utilisée dans une émission de télévision grand public. C’était même il y a quelques minutes. Dans son émission du samedi “Un dîner presque parfait”, M6 a inséré le thème “Music Box House” issu du jeu “The Legend Of Zelda ~ Majora’s Mask” !

Ça n’a peut-être l’air de rien comme ça, mais pour moi c’est un indice très intéressant. Peut-être arrivera-t-on un jour à ce que les musiques de jeu vidéo puissent être extraites de leur contexte “gros gamer” et employées pour leurs qualités musicales intrinsèques. Bon nombre d’entre elles le méritent amplement.

Notez que ce petit événement n’est très probablement pas une première : d’une part je regarde très peu la télévision, et d’autre part je me rappelle avoir cru entendre le thème “People Imprisoned by Destiny” de Chrono Cross dans une autre émission de la même chaîne, il y a de ça quelques années… Mais je n’ai jamais pu en être sûr car la musique était très faible et masquée par le blabla des personnes à l’écran.

Si vous avez déjà vécu une situation similaire (entendre un thème de jeu vidéo dans une émission grand public – qui ne parle pas de jeux vidéos, bien sûr), je vous invite à la raconter en commentaire.

VGM lives !

Flattr, l’avenir de la musique en ligne ?

samedi 13 février 2010

Connaissez-vous Peter Sunde ? Même si ce nom ne vous dit rien, vous en avez sûrement déjà entendu parler. Il est principalement connu pour avoir été le porte-parole de The Pirate Bay, le plus célèbre serveur/tracker BitTorrent. Depuis quelques mois, il avait abandonné cette fonction et on se doutait que ce n’était pas uniquement suite au procès intenté au site : il préparait quelque chose, et on attendait de voir.

Aujourd’hui, le mystère commence à se dissiper. Le personnage au franc-parler légendaire pense détenir ni plus ni moins que la solution d’avenir pour assurer la rémunération des auteurs par leurs fans sur l’internet. On savait déjà que Peter Sunde, alias “brokep”, avait une aversion particulière à l’encontre des éditeurs aux pratiques formatisantes et des structures de collecte des taxes à répartition opaque. Son idée propose donc de faire sauter ces deux types d’acteurs et de rendre la rémunération des auteurs simple, équitable et reflétant réellement l’engoûement des internautes.

Le concept est le suivant. Ces derniers ont vu se révéler le succès de certaines offres de consommation de musique par abonnement : payez une somme forfaitaire à l’année, et vous pouvez écouter tout ce que vous voulez. Flattr, puisque c’est comme ça qu’a été baptisé le concept, se base donc sur cette idée de somme fixe et régulière, tout en permettant à l’internaute de se partager celle-ci équitablement entre les auteurs de son choix.

Prenons un exemple simple : un internaute choisit de verser 5 euros par mois pour financer la musique qu’il aime écouter. Au cours de ses écoutes (libres et illimitées, il va de soi), il peut à tout moment cliquer sur un bouton pour incrémenter le compteur associé à l’auteur du morceau lu à ce moment-là. À la fin du mois, la contribution de l’internaute est alors partagée entre tous les artistes qu’il a choisi de supporter. Ainsi, s’il a cliqué sur 100 compteurs, chacun des artistes recevra 5 centimes de sa part.

Il est encore trop tôt pour dire si ce système aura du succès auprès du grand public et s’il saura résister à la pression des majors qui, on peut s’y attendre, feront tout pour le discréditer. Mais faisons confiance à Peter Sunde pour ne pas se laisser faire facilement. Et reconnaissons qu’il s’agit d’une initiative qui a le mérite d’être originale et plutôt audacieuse.

En tout cas, compte tenu de sa création par ce trublion de l’internet si souvent décrié par les ayant-droits, avouez que son succès, le cas échéant, ne manquerait pas d’ironie…

Amendement 138 : l’inversion des rôles

mercredi 14 octobre 2009

La vie politique peut parfois réserver des surprises qui ne manquent pas d’ironie.

Souvenez-vous : il y a à tout juste un an, le parlement européen se battait pour faire accepter l’amendement 138 du “paquet télécom”. Cet amendement, déposé par l’eurodéputé socialiste français Guy Bono, élève l’accès à l’internet au rang de droit fondamental, et surtout que son retrait à l’encontre d’une personne ne pouvait être décidé que par une autorité judiciaire, et non administrative. 88% des voix du parlement étaient en sa faveur, lui donnant une force difficile à combattre pour la Commission Européenne.

À l’époque, c’était bel et bien la France qui cherchait à y faire le plus obstacle, notre Président ayant déjà dans ses cartons son projet de riposte graduée, futur Hadopi. Mais après le vote de la première mouture de cette loi, le Conseil Constitutionnel est passé par là et a gravé dans le marbre que ce n’est pas à un fonctionnaire, fusse-t-il mandaté par une prétendue “haute autorité indépendante”, de décider de qui peut avoir accès à l’information et s’exprimer online, mais bel et bien à un juge.

Aujourd’hui, on apprend que les deux émissaires-négociateurs (Catherine Trautmann et Alejo Vidal-Quadras) ont trahi le mandat que leur a octroyé le Parlement Européen au cours d’un comité informel de conciliation concernant l’amendement 138. C’est donc un texte expurgé dudit amendement que devraient examiner les députés d’ici quelques mois. Et toute la tactique est là : pour manifester leur mécontentement devant cette trahison manifeste, les eurodéputés n’auront pas d’autre moyen que de rejeter en bloc le Paquet Télécom… autrement dit l’arme nucléaire démocratique (rappelez-vous du fiasco Hadopi en avril dernier). Une telle responsabilité sera extrêmement difficile à prendre.

La situation d’aujourd’hui est donc étrangement inverse à celle d’il y a un an : alors que l’Europe luttait pour préserver un amendement que la France voulait annihiler, c’est aujourd’hui la France qui en a fait un droit constitutionnel et l’Europe qui cherche à le faire oublier.

Sic transit gloria, comme on dit.

PSP Go home !

dimanche 4 octobre 2009

Depuis une bonne décennie, maintenant, les gamers sont habitués à voir les nouvelles consoles de jeu vidéo lancées en grande pompe, appuyées par de lourdes campagnes de communication, moult événements organisé à minuit le jour fatidique, avec stands de démonstration, hôtesses court vêtues, petits fours, etc. Et si ces opérations ont tant d’impact, c’est qu’elles sont d’habitude répercutés dans les grandes enseignes plus ou moins spécialisées, que ce soit Micromania, la Fnac ou même Auchan.

Et pourtant, il est une console qui a débuté son cycle de vie commerciale cette semaine mais n’a pas eu droit à ces honneurs : la PSP Go. La plupart d’entre vous en ont sûrement déjà entendu parler, Sony ayant entretenu le buzz depuis de nombreux mois. Il s’agit de la petite soeur de la PSP, qui va maintenant sur ses cinq ans et n’a cependant toujours pas perdu son leadership en terme de puissance brute pour une console portable, ce qui est une performance dans le monde d’aujourd’hui. Il est donc logique que celui-ci n’évolue pas, la petite nouvelle étant à première vue principalement un relooking de la même bestiole. Mais qu’est-ce qui explique son lancement quasi-confidentiel, alors ?

C’est très simple : la PSP est une console faite PAR Sony et POUR Sony. Tous les autres acteurs du marché du jeu vidéo, à l’exception peut-être des éditeurs de jeux, ont été évincés de la stratégie de l’ogre japonais. La principale caractéristique de la PSP Go, en effet, est une double absence : celle du lecteur de disques UMD ainsi que du lecteur de Memory Stick. À présent, les jeux ne se distribueront plus qu’en ligne, via l’internet, et se stockeront sur une mémoire flash intégrée à la machine.

L’idée de Sony est claire comme de l’eau de roche : en mettant les boutiques hors-jeu au niveau software, la firme reprend la main sur l’ensemble de la distribution, ceci lui permettant de fixer les prix, de décider quels jeux mettre en avant… et surtout de tuer à la fois la concurrence et le marché de l’occasion. Et c’est là que le consommateur se voit lui aussi impacté par cette stratégie : il ne lui est possible ni de revendre des jeux achetés (sauf en vendant la console avec), ni de réutiliser ceux achetés avant la console. Sony est toujours resté évasif quant aux modalités d’échange des jeux sur UMD au moment d’acheter une PSP Go, on sait aujourd’hui pourquoi.

Le reste des caractéristiques de la machine sont à l’avenant : les câbles et connecteurs étant devenus propriétaires, aucun de vos anciens accessoires ne seront utilisables (à l’exception des écouteurs). Ne parlons pas de l’écran plus petit et du WiFi qui reste en 802.11b, donc limité à 11Mbps, des téléchargements lents, pendant lesquels on ne peut rien faire d’autre, et qui sont à recommencer à la moindre perte de connexion au net…

PSP Go :p

Bref, vous l’aurez compris, la PSP Go est une console qui ne bénéficiera qu’à une seule entité, Sony et personne d’autre. Pas étonnant qu’aucun grand magasin ne la mette en avant et qu’on n’ait pas vu de file d’attende devant les points de vente. Son concepteur a visiblement pris les autres acteurs du marché pour des imbéciles, et il est à souhaiter que la sanction sera proportionnée à l’offense. Quand on en arrive à vouloir faire payer plus cher qu’avant pour une console qui constitue une régression à tous les points de vue, c’est qu’on perd totalement le sens des réalités.

L’ironie, dans l’histoire, c’est que j’attendais plutôt ce genre de pratique de la part de Nintendo. Mais même le requin notoire, dont la position dominante aurait pu rendre la chose logique (à défaut de normale), n’a pas osé… Chapeau.

Réalité augmentée

mercredi 26 août 2009

La réalité augmentée, vous connaissez ? Il s’agit d’un procédé technique visant à superposer des informations numérisées à la perception humaine ordinaire. Un des premiers domaines où il fut utilisé est l’aviation, avec les fameux “affichage tête haute” (HUD) qu’on trouve sur les modèles assez récents d’avions de chasse, comme par exemple le F-18 :

F-18 HUD

L’intérêt de la technique est de permettre aux informations ajoutées d’être très rapidement assimilées, car on n’a plus à considérer d’un côté la réalité, et de l’autre les données. Le cerveau apprend très vite à fusionner les deux sources d’informations, comme si en fin de compte il ne s’agissait que d’une seule. Comme si on lui augmentait ses capacités de perception.

La réalité augmentée serait-elle le prochain eldorado de l’électronique grand public ? Déjà certaines voitures arrivent à incruster certaines informations dans le pare-brise, de manière à aider le conducteur aux manoeuvres. C’est également une technique de ce type qui est utilisée à la télévision pour insérer des panneaux publicitaires dans les vidéos tournées sur des terrains de sport, de manière à ce qu’ils soient toujours dans le bon sens quel que soit l’angle de la caméra.

Il existe une application pour iPhone qui, dans sa toute nouvelle version 3.0, utilise la caméra de l’appareil pour faire de la réalité augmentée. Baladez-vous dans Paris, et il vous affichera à l’écran toute sortes d’informations très utiles dans la vie de tous les jours. Une image valant mieux qu’un long discours, voici ce que ça donne :

Metro-Paris

Quelle belle valeur ajoutée ! C’est fou ce que de telles informations donnent comme charme à notre capitale ! ;)

Bon, d’accord, je suis un peu cynique : le but principal de l’application est quand même de vous permettre de trouver les stations de métro et de RER, et a l’air de parfaitement remplir cette mission.

L’iPhone semble donner des ailes à toute une nouvelle génération de programmeurs qui fourmillent d’idées intéressantes. Et je prédis un ras-de-marée pour le jour où une application pourra faire ça en temps réel :

Réalité très augmentée

Mac OS X et la tolérance de panne

mardi 21 juillet 2009

J’ai fait une découverte intéressante, le week-end dernier : Mac OS X gère nativement la tolérance de panne réseau, et en multi-support.

Mékéskidi ? Je vous explique.

Vous n’êtes pas sans savoir qu’en informatique, n’importe quel composant, matériel ou logiciel, peut défaillir, et donc que n’importe quelle fonction peut s’arrêter de fonctionner. Dans les réseaux informatiques, on vit avec la menace permanente de la coupure au-dessus de sa tête, tant il est vrai que maintenir une connexion avec un équipement distant est un énorme empilage de technologies, matérielles et logicielles. Interopérables, certes, mais pas infaillibles.

Un des mécanismes de protection les plus classiques contre les coupures est appelé “fault tolerance”, tolérance de panne. Le principe est assez simple : au lieu d’avoir une connexion réseau, vous en avez deux, une qui fonctionne et l’autre qui est en sommeil. Si la première s’arrête de fonctionner, la seconde le détecte et reprend sa fonction, de façon la plus transparente possible, l’idéal étant de ne perturber aucune des fonctions réseau votre équipement. Enfin, lorsque la connexion primaire est rétablie, la secondair lui rend la main, et tout reprend comme avant. On appelle ça un système actif-passif, car il y a toujours un accès qui fonctionne, et l’autre qui est en attente de prendre le relais.

Il existe également des systèmes dits à répartition de charge (les deux accès sont actifs en même temps et se partagent le travail), mais les points essentiels dans la tolérance de panne sont :
– une liaison de données qui fonctionne tant qu’il reste au moins une connexion active ;
– un traitement automatisé des changements de situation ;
– un maintien des opérations en cours quand un lien est rompu.

Dit comme ça, ça peut avoir l’air simple, mais techniquement ça ne l’est pas du tout. Dans les réseaux modernes, tout se base sur les adresses IP, et cet identifiant se doit d’être unique sur le réseau. La tolérance de panne, c’est un peu comme lorsque vous partez en vacances et que vous voudriez que votre voisin reçoive votre courrier : ça paraît simple sur le papier, mais allez expliquer ça à la poste… elle voit une adresse sur une enveloppe, hors de question de le mettre dans une autre boîte aux lettres !

Pour que la tolérance de panne fonctionne, votre équipement doit donc avoir deux connexions au réseau, et qu’elles partagent une même adresse IP. Là encore, ça peut paraître évident sur le papier, mais allez attribuer la même adresse IP à votre carte Ethernet, et à votre carte WiFi sous Windows, et vous vous ferez jeter direct. Pour mettre en place un accès double, il faut intervenir au niveau du pilote des cartes réseau, ce qui suppose d’avoir deux modèles identiques, ou du moins provenant du même constructeur. Et ça, c’est plutôt difficile à mettre en place sur un portable…

Mais à présent, si vous êtes un mac-user, faites l’expérience : dans un réseau accessible via Ethernet ou WiFi au choix, affectez votre IP actuelle aux deux interfaces. En fonction de l’ordre défini dans les réglages, c’est la plus prioritaire des deux qui répondra. Maintenant désactivez-là (en débranchant le câble internet ou en coupant l’accès Airport, selon le cas) : miracle, votre liaison est toujours effective. Vous venez de mettre en place un accès réseau à tolérance de panne, et qui plus est en utilisant deux supports complètement différents : un câble ethernet et des ondes WiFi !

Il faudra que je fasse des tests plus poussés, notamment pour m’assurer de la continuité des opérations réseau en cours au moment de couper, mais à première vue c’est une fonctionnalité très intéressante. Et si vous vous demandez à quoi ça peut servir, il suffit d’imaginer. Par exemple, vous êtes en train de faire une grosse copie de fichiers via ethernet, mais vous êtes obligés de déplacer votre ordinateur à un endroit où le câble ne peut pas suivre… Plus généralement, garder la même adresse IP quel que soit le média utilisé est intéressant lorsqu’on utilise un serveur auquel d’autres personnes se connectent. Et puis, on peut très bien aussi vouloir garantir un accès fiable en joignant ainsi l’interface Ethernet native avec un adaptateur Ethernet-USB.

…Et puis bon, ça donne une touche “geek” aux Macs, aussi. Ben oui.

WebApps VS DesktopApps

samedi 19 juillet 2008

L’informatique est, à l’instar de nombreux autres domaines, soumis à des cycles, voire des modes. Aux tout débuts, il n’était pas question d’informatique personnelle, et on se contentait de terminaux reliés à de gros systèmes. Puis sont venus les premiers micro-ordinateurs avec un OS dedans, puis ceux avec un VRAI OS dedans, puis ceux avec un VRAI OS FACILE d’utilisation dedans. L’augmentation continue de la puissance et de la capacité des machines ainsi que l’isolement des machines le net ne s’est démocratisé que vers 1995) ont naturellement favorisé les applications dites “locales” ou “résidentes”, autrement dit installées directement sur l’ordinateur.

Puis avec la généralisation de l’internet et le (chaotique) développement des standards ouverts et de technologies comme AJAX, on a vu apparaître les premières “WebApps” : webmail, bureautique, commerce et jeux en ligne… Ces applications n’ont besoin de rien d’autre que d’un minimum de puissance et d’un navigateur internet relativement à jour pour fonctionner. Comme l’essentiel du boulot se passe sur les serveurs, plus de tracasserie de mise à jours des applications, mais en contrepartie, on devient dépendant de sa connexion internet et les risques liés à la sécurité des données explosent. Charybde ou Scylla ? La peste ou le choléra ? La bourse ou la vie ?

Aujourd’hui, on pourrait croire que les WebApps sont en train de tout ravager, tant il est vrai qu’on parle d’elles. Qui plus est, on arrive à un point où il se vend de tout petits ordinateurs dont les faibles ressources ne laissent pas de doutes quant à leur but : être connectés en permanence et ne plus rien gérer (ou presque) en local. Certaines personnalités du web n’hésitent même plus à considérer qu’un système d’exploitation n’est qu’un amas de drivers permettant de faire tourner un navigateur !

Mais parallèlement, on assiste aussi à un mouvement de convergence, à savoir des tentatives d’intégrer au bureau des applications online. C’est ainsi que sont nés les WebClips chez Apple, les WebChunks chez Microsoft et leur pendant Firefox WebSlices. Ce sont de mini-applications chargées de n’afficher qu’une certaine partie de site internet.

Plus fort encore, Prism, un logiciel édité par Mozilla Labs qui permet d’enrober une application en ligne comme GMail ou FaceBook dans un exécutable local, de manière à le rendre plus performant et mieux intégré au système via des raccourcis-claviers et des barres d’outils personnalisables. Mac OS, en attendant la prochaine mouture de Safari qui devrait proposer la même chose, en a déjà un avatar : Fluid. Je l’ai testé ces derniers jours et même s’il est encore assez limité, on arrive à des résultats assez satisfaisants.

Quelques WebApps reconnaissables...

Cette évolution duale des logiciels est très intéressante, car elle montre à quel point l’informatique est un domaine qui progresse tellement vite qu’il est impossible d’avoir une vision très claire de ce à quoi il ressemblera dans le futur, même proche. L’augmentation constante des capacités matérielles et la démocratisation des interconnexions réseau tirent chacune cette évolution dans un sens, et on se demande finalement si la couverture finira par craquer…