Archive pour la catégorie ‘Moi je’

Impôts en ligne : oui mais non !

mercredi 16 mai 2007

Cette année, tout comme l’année dernière à la même époque, je m’apprêtais à déclarer mes revenus en ligne. Après tout, c’est facile, pratique (même pas peur des ratures !), et économique puisqu’on y gagne 20 euros de réduction.

Qui plus est, l’opération précédemment un (petit) poil fastidieuse d’acquisition du certificat électronique n’étant plus nécessaire, je m’étais vraiment fait à l’idée que la déclaration 2007 serait bien tranquille.

Eh bien NON ! Cette fois-ci, quand je demande à accéder à mon espace de contribuable, voici ce que j’obtiens :

Vous ne pouvez pas accéder à nos services en ligne cette année.

Votre accès sera retabli dès la prochaine campagne de déclaration de revenus.
Dès lors, nous vous invitons à déposer une déclaration papier auprès de votre centre des impots.

Nous vous présentons nos excuses pour ce désagrément.

En bon geek, avant de m’en remettre à l’assistance technique, j’ai tout essayé : créer un nouveau certificat, utiliser un autre navigateur, utiliser un autre ordinateur… rien n’y a fait, toujours le même message.

Finalement, je finis par me décider à demander de l’aide au numéro à 0,12 euros/minute indiqué par le site. Et la réponse du monsieur de claquer, terrible. En substance, à quelques mots près :

Vous ne pouvez pas accéder à nos services en ligne cette année.

Votre accès sera retabli dès la prochaine campagne de déclaration de revenus.
Dès lors, nous vous invitons à déposer une déclaration papier auprès de votre centre des impots.

Nous vous présentons nos excuses pour ce désagrément.

Ah, y’a pas à dire, même en ligne, le service public reste fidèle à lui-même. Et vu ce que Sarko pense de l’informatique, inutile d’attendre une révolution à ce niveau-là.

Agrégateurs RSS : petit test de 3 pointures

lundi 9 avril 2007

Connaissez-vous les agrégateurs de flux en ligne ? Purs produits du web 2.0, il est possible que certains d’entre vous n’en aient pour l’instant que vaguement entendu parler, sans les utiliser. Mais ça ne saurait tarder : le succès de ces portails personnels croît exponentiellement, tout comme leurs possibilités.

Pour ma part, j’ai découvert le concept le jour où Google a lancé Google IG, son moteur de pages personnalisées. Simple, sobre, voire spartiate, je m’en suis très bien contenté pendant près d’une année. Au début limité aux seuls flux RSS, Atom fut assez vite implémenté, puis on a vu arriver les premiers gadgets comme Google Maps ainsi que les inévitables calendriers, dictionnaires, traducteurs ou jeux de sudoku. C’est lorsque les onglets ont été implémentés, en octobre dernier, que j’ai réellement commencé à m’organiser un portail personnel et à en faire ma page de démarrage et à en tripoter le code CSS pour le rendre plus agréable à regarder.

Google IG

Et puis à la fin du mois dernier, j’ai découvert Netvibes grâce à une blog qui a toute ma confiance et qui en parlait. Pour résumer, c’était Google IG en mieux à tous les points de vue : bien plus joli, plus de possibilités et de réglages, des gadgets plus puissants et une communauté francophone existante. En un tournemain, je me crée un compte (un modèle de rapidité que cette opération sur ce site-là !) et me crée une page au contenu presque identique à mon portail Google d’alors. Puis vint le moment du choix : Netvibes était très tentant mais j’aimais beaucoup IG… ce qui m’a convaincu fut le module affichant les perturbations de la RATP et de la SNCF : utilisateur régulier des transports parisiens, il s’est vite révélé indispensable.

Netvibes (Coriander)

Puis, au bout de quelques jours, je me suis rendu compte d’un gros défaut de Netvibes : sa consommation mémoire. En effet, sur mon Mac, le fait d’afficher ma page (et ses 6 onglets, certes) affectaient d’office 100 Mo de RAM supplémentaires à Firefox ! Qui plus est, une fuite de mémoire (qui faisaient encore augmenter la taille occupée par Firefox) était également observable. En quelques heures, Firefox arrivait facilement à 250 Mo à lui tout seul… Ouille ! D’accord j’ai 2 Go de mémoire en tout, mais ce n’est pas une raison pour laisser mes programmes en faire n’importe quoi.

C’est ainsi que, dépité, je me suis demandé s’il fallait revenir à mon bon vieux IG, qui faisait pour moi partie du passé. Un peu comme revenir à Mac OS 9 après mes quatre ans sous Mac OS X, en quelque sorte. Je suis donc parti en chasse d’un remplaçant à Netvibes qui serait basé sur le même concept mais en plus léger. Après avoir visité plusieurs autres agrégateurs qui organisaient l’affichage d’une façon qui ne me convenait pas, j’ai fini par débarquer sur Pageflakes, qui semblait bien être ce que je cherchais. On y trouve en effet plein de points communs avec Netvibes, comme la création de compte ultra-rapide, les manipulations identiques ou les réglages possibles sur chaque module (ici nommés “flakes”).

Pageflakes

C’était il y a une semaine environ et Pageflakes m’a vite séduit : j’étais dans mon élément et même si mon module RATP-SNCF me manquait (triple argh), au moins mon Firefox restait raisonnablement gourmand. Jusqu’à aujourd’hui où je suis tombé sur une note de blog qui parlait des ressources consommées par différents agrégateurs et dont un document m’a interpellé :

Consommation des agrégateurs

On y voit clairement que Netvibes est moins gourmand que Pageflakes, et à peine plus que Google IG. Et les tests ont été menés sur un Powerbook très proche de la configuration de mon Mac : 2 Go de RAM, OS X 10.4, Firefox 2.0… qu’en penser ? Intrigué, je charge mes pages Google IG, Netvibes et Pageflakes au moyen d’un PC sous Windows et que je regarde la consommation mémoire de Firefox qui en résulte :

Google IG : 33 Mo
Netvibes : 35 Mo
Pageflakes : 40 Mo

Voilà qui confirme les valeurs obtenues par le site. Mais que ce soit sur mon Mac ou un autre, malgré toutes sortes de bidouilles (élimination des extensions, création d’un profil tout neuf, etc.), j’ai invariablement quelque chose qui ressemble à ceci :

Google IG : 70 Mo
Netvibes :
173 Mo
Pageflakes : 77 Mo

Autre détail important : le problème ne se manifeste qu’avec Firefox ; Safari, Opera, Camino sont, pour leur part, épargnés. On a donc ici un bug qui semble définitivement lié à la plate-forme Mac. Mais l’auteur du graphique ne semble pas être affecté, lui… Pourquoi, pourquoi, pourquoi ? Je regarde alors la date de l’article : décembre 2006. Entre cette date et aujourd’hui, Netvibes a un peu évolué : quelques options supplémentaires et un nouveau thème, nommé “Coriander”, activé par défaut. Hmm… l’intuition me suggère d’essayer de revenir au thème classique, puisque c’est faisable (et facilement, en quelques clics). Et là, miracle : Firefox revient à 72 Mo de mémoire consommés après avoir chargé ma page complète !

Voilà comment je suis en mesure d’affirmer aujourd’hui que cette sur-consommation de RAM occasionée par Netvibes a trois origines qui doivent être concomitantes :
– être sous Mac OS X
– utiliser Firefox
– avoir activé le thème “Coriander”

J’ai bien évidemment envoyé un rapport au staff de Netvibes, en espérant qu’il ne sera pas de ceux à répondre en substance “bonjour, la plate-forme Mac représente moins de 5% du marché, donc on s’en cogne…” En tout cas, en cet instant précis, je pense que je vais donc refaire de Netvibes ma page de démarrage : il est un peu moins joli qu’avant mais j’ai réussi à contourner ce qui semblait être son principal défaut. Et au moins, je retrouve mon module RATP-SNCF ! ;)

Netvibes (classic)

Zune : bienveillance de mise, SVP

jeudi 16 novembre 2006

Depuis quelques jours, avec la sortie du Zune de Microsoft, au fil des articles et témoignages (et souvent de gens qui ne l’ont même pas touché), j’ai de plus en plus l’impression qu’il se passe quelque chose d’étrange dans la communauté informatique. Et c’est en lisant le test du Zune par Ars Technica que j’ai pris confiance de cet état de fait.

L’article en lui-même est très bien mené, comme toujours avec ce site, et on apprend à peu près tout ce qu’on veut savoir sur le produit, y compris ses défauts, parmi lesquels des plantages fréquents, une synchronisation des fichiers erratique, un logiciel lent et des limitations frustrantes dans le partage de fichiers et l’accès WiFi. Le seul endroit où j’ai dressé les sourcils, c’est en lisant la note : 7/10. Jusqu’ici, Ars Technica nous avait habitué à faire la part des choses entre les défauts mineurs et majeurs. Une telle note était ainsi accordée à des équipements imparfaits, mais très satisfaisants. Eh bien pas cette fois-ci : le Zune a beau planter dès son premier allumage et ne jamais arriver à se synchroniser correctement, en plus d’être incapable de lire des fichiers protégés de l’ancienne plate-forme de Microsoft (“PlayForSure”), il est qualifié de “très convaincant”, même si “The Zune software is quite nice when it works.” (sic)

[mode “caricature” = ON]
Ma nouvelle voiture rate un démarrage sur deux et ne peut pas passer en marche arrière. De plus, les portes arrières semblent en réalité simplement peintes, mais des rumeurs affirment que l’installation de véritables portes est prévue dans un futur proche. Enfin, quand je veux faire le plein, le réservoir refuse d’être rempli à plus du quart… Cela dit, elle es très jolie et mérite bien 7 sur 10.
[mode “caricature” = OFF]

Tout ça pour amener la thèse qui est l’objet de cette note : j’ai l’impression de plus en plus nette que Microsoft bénéficie d’une sorte de traitement de faveur, d’une bienveillance volontaire sur le marché “baladeur + contenus multimédia en ligne”. Sous prétexte apparemment que Microsoft n’est pas leader de ce marché, la communauté informatique (celle qui écrit des articles, à la différence du grand public qui, lui, manifestera son avis en achetant ou pas) semble se complaire à fournir un joli piédestal à l’ogre de Redmont en vantant les soi-disant avantages du Zune et en tolérant à outrance ses défauts même les plus graves. Sur Digg, le site dont les articles doivent leur présence en page principale à une vote des internautes, chaque lien vers un texte osant critiquer le dernier bébé de Microsoft se retrouve impitoyablement censuré dans les minutes qui suivent et les blogs créés spécialement pour comparer avantageusement le Zune par rapport à l’iPod se multiplient.

Alors, pourquoi tant de condescendance, surtout envers une compagnie qui n’en a pas vraiment besoin, compte tenu des moyens qu’elle a décidé d’investir dans son produit ? Je pense que ceci est lié au fait qu’Apple le domine si outrageusement, que ce soit au niveau des baladeurs à disque dur ou à mémoire flash ou de la musique en ligne. Mais ce n’est pas tout. En effet, nombreux ont été les concurrents à avoir essayé de tuer l’iPod avec leurs propres gadgets, et si chacun d’eux a eu sa poignée de fans, jamais une telle vague d’optimisme n’a été aussi forte à l’idée de renverser Apple.

La communauté voit peut-être le Zune comme le dernier espoir d’empêcher Steve Jobs de mettre définitivement la main sur l’ensemble des contenus en ligne, pressentant que si le Zune échoue, les autres concurrents n’oseront pas se lancer à nouveau avant un bon moment. Et tant pis si c’est Microsoft, pourtant connu pour ses pratiques monopolistiques, qui porte l’étendard de la révolution. Et tant pis si on se retrouve à acheter un baladeur moche, buggé et (volontairement) incompatible avec toutes les musiques qu’on a achetées jusqu’à aujourd’hui. Vive Microsoft, qui lutte pour la saine concurrence, et à mort Apple, qui a l’outrecuidance de dominer un marché qu’elle a lancé (voire créé) toute seule !

CAPTCHAs : le pourquoi du pourquoi

mardi 31 octobre 2006

Certains de mes lecteurs ont peut-être remarqué la présence de ce que les connaisseurs appellent “CAPTCHA”, en bas de chacune de mes notes, au niveau des champs de saisie des commentaires. Il s’agit de ces images affichant un mot qu’il vous est demandé de restituer afin d’authentifier votre prose et lui permettre d’être affichée sur mon site. Vous en avez sûrement vu sur d’autres blogs ou sur des sites où il faut s’inscrire. Ils ne sont pas là pour vous embêter mais bien pour empêcher l’usage de robots remplissant les formulaires de façon automatisée pour générer du spam ou des perturbations de service.

CAPTCHA, c’est l’acronyme de “Completely Automated Public Turing test to tell Computers and Humans Apart“, ou en français : test de Turing entièrement automatisé afin de distinguer les hommes des ordinateurs.

Alan Mathison Turing était un mathématicien britannique qui est à l’origine de beaucoup des principes fondamentaux de l’automatisation des calculs et de l’intelligence artificielle. Le test éponyme est, à l’origine, un protocoles de confrontation verbale entre des machines et des humains : si l’ordinateur arrive à convaincre l’humain qu’il est lui-même un humain, la machine est déclarée avoir réussi le test. Chaque année, le meilleur “chatbot” ainsi créé reçoit le “Turing Award”.

Les CAPTCHAs tels que nous les connaissons (des filtres anti-robots pour formulaires en ligne) sont donc en réalité une des multiples facettes des tests de Turing, qui ont pour base l’intelligence artificielle. En l’occurence, l’idée est d’utiliser l’intelligence instinctive chez l’homme de reconnaissance des formes. Car oui, soyez-en assurés, l’humain est fort bien doté de ce point de vue : si reconnaitre des lettres quelles que soient leur style, leur taille et leur couleur est immédiat pour nous, l’informatique même moderne n’arrive pas à un tel degré d’exactitude à une vitesse approchant la nôtre.

Ces CAPTCHAs sont-ils donc infaillibles ? Ceux qui suivent un peu l’actualité technologique ont peut-être entendu parler de “proof of concept” prometteurs dans la reconnaissance de caractères, il ne s’agit pour l’instant que de moteurs réalisés en laboratoire, c’est à dire avec des ressources quasi-infinies. Des amateurs auraient également réussi à développer des algorithmes pour déjouer les CAPTCHAs de certains grands sites commerciaux… Mais chacun ayant sa propre façon de présenter leurs textes à reproduire, il faut se ré-adapter à chaque site. Opération difficile, surtout lorsqu’on sait que modifier le style d’affichage (ajouter des déformations, des lignes ou des points un peu partout, etc.), est très facile pour le webmaster.

Or, que recherchent les spammeurs ? A abuser de ce qui ne coûte rien : le spam existe principalement à cause de la gratuité du courrier électronique. Les CAPTCHAs, de par leur côté personnalisable, touchent donc les spammeurs à l’endroit où ils sont le plus sensibles : le portefeuille. Et on peut légitimement penser qu’ils ne s’amuseront pas à s’attaquer à un blog comme le mien. Et l’histoire le confirme : depuis leur introduction en 1997 par le moteur de référencement de sites d’AltaVista jusqu’aux formulaires d’inscriptions aux grands sites modernes de Google, Yahoo ou Hotmail, l’efficacité du concept reste dissuasive.

Voilà pourquoi, après divers essais d’outils anti-spam pour WordPress aux résultats variables, j’ai décidé qu’un système de CAPTCHAs serait la meilleure solution : en échange d’un seul mot supplémentaire à saisir pour chaque commentaire, une tranquillité absolue, sans risque de faux positif et des dizaines de minutes par semaine à vérifier/trier le spam de gagnées !

Géoportail ou Google Maps ?

vendredi 7 juillet 2006

Geoportail, vous en avez forcément entendu parler dans les médias. Le site est au moins aussi célèbre pour son intérêt intrinsèque que pour le semi-échec qu’a constitué son lancement. A peine sa mise en ligne répercutée sur les ondes, les quelques serveurs rendaient l’âme sous les milliers de requêtes HTTP. Il aura dès lors fallu les efforts ininterrompus de plusieurs personnes pendant presque une semaine pour remetttre le site à flot.

Google Maps, lui, a désormais une bonne année derrière lui. Son lancement en février 2005 a été moins chaotique, en grande partie grâce au savoir-faire de Google en matière de gestion des effets d’annonce, et aussi au fait que les photos ne sont venues que par la suite, courant avril. Très logiquement, Google Maps, accompagné de son petit frère Google Earth (logiciel autonome pour Windows, Mac et Linux) est très vite devenu la coqueluche du monde entier, au fur et à mesure qu’il mettait en ligne les photos de tous les recoins du monde. En constante amélioration, le site propose depuis quelque mois des photos de qualité à peine croyable sur toutes les grandes villes, ainsi qu’un système de recherche de services de proximité.

Il ne fait aucun doute que la mise en ligne gratuite des photos de l’IGN, jusqu’à présent vendues fort cher, suit le mouvement de la cartographie grand public, inauguré par Google l’an dernier. Un peu comme pour le projet de bibliothèque numérique européenne, que le gouvernement français défend fiévreusement après avoir craché abondamment sur Google Books. Comme quoi, la concurrence reste le principal moteur de l’évolution technique, quoi qu’on puisse annoncer pour sauver la face.

Mais revenons à nos moutons : qui est le meilleur de Geoportail ou Google Maps ? Mon premier réflexe, comme la plupart des personnes je pense, a été de chercher aux différents lieux où j’ai vécu personnellement. Et par deux petits exemples, on peut distinguer les avantages et les défauts des deux sites. Commençons par le petit patelin en pleine cambrousse iséroise, situé à une bonne trentaine de kilomètres de Grenoble :

Campagne

Ah, la campagne…

Comme qui dirait, il n’y a pas photo. Ailleurs que dans les villes, Google en France n’offre que des cartes peu lisibles si on ne superpose pas les routes. Passons maintenant à mon domicile actuel, en Ile-de-France :

Ville

Coucou !

Cette fois, les rôles sont inversés : autour de Paris (mais il en est de même pour la plupart des grandes villes), Google offre un niveau de détail incomparable, et avec des couleurs beaucoup moins délavées. Si vous allez voir le château de Versailles, vous y verrez même les gens dans la cour !

Outre la qualité des clichés, il faut bien avouer que niveau utilisabilité, beaucoup de progrès restent à faire de la part de l’IGN. L’interface est moins attrayante et moins réactive que celle de Google, et plusieurs bugs gênants restent présents sur Geoportail, surtout si on n’est pas sous Explorer/Mozilla. Enfin, on sent la forte influence “politiquement correct” au niveau des endroits “sensibles” qui ont été décolorés, alors même que ces zones sont visibles chez Google…

Globalement, on ne peut pas dire que Geoportail soit mauvais, loin de là, et sa couverture quasi-totale du pays plaide en sa faveur. Et puis, le site est encore très jeune, et l’initiative de faire profiter tout un chacun d’une base d’images aériennes aussi conséquente que celle de l’IGN est évidemment une initiative louable. Une nouvelle version du site, intégrant parait-il le relief, est prévue pour la fin de l’été. En espérant que d’ici là, l’institut aura appris à dimensionner un site web…

Sourdingue génération

mercredi 14 septembre 2005

On nous rabache les oreilles avec ça depuis un bon moment déjà, et pourtant on n’y fait pas vraiment attention : nous, et plus particulièrement les plus jeunes d’entre nous, prenons des risques avec les baladeurs musicaux. Les scientifiques envoient donc régulièrement des messages d’alerte quant au volume sonore que nous infligeons à nos oreilles.

La problématique est désormais bien connue et avérée : l’augmentation des perturbations sonores produites par les environnements dans lesquels nous vivons nous incite à nous réfugier dans la musique, et en poussant le volume sonore toujours plus haut en espérant ne plus les entendre. Fatale erreur !

En revanche, j’ai tendance à penser que les solutions suggérées la plupart du temps sont, elles, plus que discutables. A commencer par celle citée dans l’article linké ci-dessus, à savoir que le fait d’écouter 1 heure de musique sur son baladeur à 60% du volume maximum est relativement sûr. Ce n’est, je pense, pas du tout comme ça qu’il faut voir les choses. En effet, cette recommandation néglige plusieurs facteurs :

  • la puissance maximale du matériel, qui peut varier de 90 à 110 dB (un gouffre sur une échelle logarithmique)
  • la puissance sonore que dégage chaque morceau (entre du classique et du rock, vous devez comprendre ce que je veux dire)
  • le niveau sonore auquel le morceau a été enregistré (qui peut varier du simple au double d’un disque à l’autre)
  • les types de sons employés (certaines fréquences sont plus nuisibles que d’autres, et certains mélanges très riches en harmoniques sont bien plus dangereux que d’autres)
  • Voilà pourquoi il est grand temps qu’on commence à essayer de solutionner le problème en se basant non pas sur des chiffres mais sur des repères plus humains, quelque chose qui permette de savoir instinctivement qu’on écoute sa musique trop fort sans avoir besoin de valeurs théoriques et peu significatives. La limitation à “100 dB” de la puissance maximale des baladeurs en France en est d’ailleurs un bel exemple : un disque enregistré à un niveau maximal sera quand même dangereux alors qu’un disque de musique calme à faible niveau se retrouvera inaudible. Préférons donc nous poser des questions comme “est-il normal qu’avec de la musique dans mon petit casque ordinaire je n’entende pas le bruit d’une voiture qui me passe juste devant ?” (la bonne réponse est “non”).

    En attendant de bonnes solutions techniques plus convaincantes que les récentes tentatives d’égalisateurs de puissance sonore, vous pouvez aussi vous procurer des écouteurs intra-auriculaires : leur principale qualité est de vous isoler des bruits extérieurs et donc de pouvoir bien entendre la musique sans avoir à pousser le volume.

    De la théorique du Ko plantique

    vendredi 1 avril 2005

    Petit témoignage perso, pour une fois.
    Je vous rassure, une fois n’est pas coutume.

    Hier soir, comme par hasard à l’heure de partir du boulot, le serveur de supervision tombe en panne. Paf. Il s’agit tout de même de la machine qui permet de tout savoir sur l’ensemble du système informatique à gérer, bref la machine dont dépend le plus directement mon job. Il faut gérer ça tout de suite.
    Alors alors, qu’avons-nous ? Oh un écran tout bleu avec du texte blanc dessus ! Ca dit quoi ? En gros : “STOP”, plein de chiffres hexa, “INACCESSIBLE BOOT DEVICE” et un message à rallonge m’expliquant ce que ferait toute personne ne connaissant pas la théorie du Ko Plantique.
    Mais moi je ne goûte pas de ces conseils-là. Je redémarre une fois le serveur. Poum, pareil. Je le redémarre une autre fois en mode sans échec. Poum, pareil. Et là, c’est moi qui démarre. Pour rentrer chez moi. Bah oui, il était déjà 17h22 et j’avais un bus dans 5 minutes.
    Le lendemain, ce matin donc, frais et dispos, je rallume la bête… et elle refonctionne. Non sans une certaine auto-satisfaction, je lance quelques tests de diagnostic ainsi que la consultation de rapports d’événements dont je sais à l’avance que je ne tirerai rien de tangible. Puis je retourne vaquer à mes tâches habituelles.

    C’est que, une fois que vous vous êtes bien frotté à des machines tournant sous Windows, vous ne pouvez plus ignorer que l’informatique est soumis à un ensemble de manifestations chaotiques, surtout fourrées au PetitMou. Le seul élément informatique qui ne soit pas binaire (1 ou 0) est bien son fonctionnement : ça peut marcher, ne pas marcher, ou marchotter.
    En fait si, c’est binaire, mais suivant une loi stochastique : le fonctionnement n’est plus ni constant, ni fonction de ce que l’on fait, mais résultat d’un tirage au hasard de l’ordre de la minute. Allez, de l’ordre de l’heure dans les cas des administrateurs qui gèrent leur matériel de façon particulièrement rigoureuse… ou qui laissent leurs machines éteintes.

    La constante de Plante n’existera jamais, je le sais. D’ailleurs c’est dommage, j’aurais bien aimé la découvrir.