Archive pour la catégorie ‘Evolutions’

Free lance le réseau téléphonique solidaire

vendredi 6 octobre 2006

Free est décidément un opérateur internet pas comme lesa autres : quelques semaines après l’annonce par Orange et par Neuf d’une solution de téléphone mixte portable-fixe, Free lance sa propre vision de la chose.

Le téléphone mixte est une idée assez simple : quand vous n’êtes pas chez vous, le téléphone utilise le réseau GSM, et quand vous êtes dans le champ d’action de votre “box” internet, le WiFi et la VoIP prennent le relais pour vous faire bénéficier de la téléphonie illimitée (ou presque) de votre fournisseur d’accès. Techniquement, le “roaming” (basculement d’un réseau à l’autre sans coupure) est même possible. Une bonne idée pour les gens qui aiment téléphoner.

Arrive Free qui, fort de ses quelque 300 000 Freebox HD (version 5 de la box de l’opérateur), propose d’aller encore plus loin :

Dès qu’un abonné est à proximité de sa Freebox HD ou de celle d’un autre Freenaute, son téléphone se connecte automatiquement à son compte personnel de téléphonie Freebox : il bénéficie alors de tous les services et de la grille tarifaire (y compris de la gratuité vers 28 destinations dont les postes fixes en France Métropolitaine) proposés par Free.

Ceci signifie que le mode WiFi sera utilisable via n’importe quelle Freebox HD, pas seulement celle de l’abonné. Concrètement, si en vous promenant dans la rue vous parvenez à accrocher une Freebox HD, vous pourrez téléphoner gratuitement. D’où corrolaire : si vous avez une Freebox HD chez vous, les gens qui se ballaront dans votre rue avec un de ces nouveaux mobiles Free pourront téléphoner. En utilisant votre réseau sans fil. Votre Freebox. Votre accès internet. Votre bande passante. Oh ? Votre beau réseau sans fil bardé de cryptages pour le rendre inaccessible ? Ils ont le droit de faire ça ?

Le communiqué officiel décrivant l’offre ne donne hélas pas beaucoup de détails, donc on ne peut que conjecturer. J’imagine donc qu’étant donné la tendance actuelle à protéger son réseau sans fil (et à juste titre), ces téléphones doivent s’affranchir de ces protections. On en déduit donc que ces mobiles Free sauront :
– détecter et se connecter à un réseau sans fil même protégé (clés WEP ou WPA) ;
– s’identifier auprès de votre Freebox
– utiliser votre accès internet – et votre bande passante – pour établir des connexions téléphoniques à leur nom (et peut-être payantes pour les numéros surtaxés ou étrangers)
…et tout ça sans que vous n’ayiez un moyen de le savoir. Je ne suis pas Nostradamus, mais j’imagine qu’il y a des gens qui ne vont pas être très d’accord avec ça.

Maintenant, on imagine difficilement Free ne pas avoir pensé à ce problème. Et il est peut-être bon de se souvenir d’un détail important : Free reste propriétaire de tout ce qu’il met à votre disposition pour vous permettre d’accéder au net. Ainsi :
– la freebox vous est louée (son coût fait partie du forfait de 29,90 euros) ;
– votre réseau sans fil est permis par cette freebox et fait partie de la prestation de service ;
– votre accès internet idem ;
– la bande passante itou.

Cela dit, il demeure un questionnement plus technique : si un dispositif peut ainsi pénétrer un réseau sans fil sans y être invité par le freenaute qui l’a installé, on se trouve en présence d’une “faille intentionnelle”, autrement dit une “backdoor”. Et si des petits malins arrivaient à détourner cette entrée de service pour attaquer les ordinateurs reliés aux Freebox HD ? Espérons pour Free que la protection (très probablement) mise en oeuvre sera à la hauteur de ses ambitions.

Freebre optique

mardi 12 septembre 2006

En ce jour où le pays berceau de l’internet se recueille autour de ruines qui n’ont sans doute pas fini de faire parler d’elles, c’est en France qu’est annoncé ce qui se veut être pas moins que la première offre d’accès grand public par fibre optique au réseau mondial. Et c’est Free, le trublion de l’internet français, qui tient la vedette. Au programme : des débits de 50 Mb/s en envoi comme en réception, télévision en haute-définition, téléphonie illimitée, le tout pour 30 euros tout compris. Boum.

On pourrait dès lors se croire dans une scène en tout point similaire à celle d’il y a 5 ans, quand Free annonçait son offre ADSL à 30 euros quand France Télécom Wanadoo, alors en monopole de fait, proposait la même chose pour un prix trois fois supérieur. Mais ce serait négliger que cette fois-ci, Free entend bien exploiter un réseau qui sera entièrement sien, des centraux aux modems en passant par les répartiteurs.

Non sans une certaine ironie, Free a même promis de louer son futur réseau à ses concurrents. Ironie face à Wanadoo Orange, qui a elle-même annoncé un réseau en fibre optique il y a de cela quelques semaines, mais en s’assurant d’une couverture ministérielle dans sa volonté de ne pas vouloir d’un “dégroupage optique”. Free en profite pour se donner une image de partenaire des structures plus petites, et notamment des collectivités territoriales. Ou comment railler la privatisation totale de l’opérateur historique.

Mais Free ne s’arrête pas là : un peu plus tard dans la matinée, Free a annoncé vouloir faire bénéficier d’un accès gratuit. Bien sûr, le service fourni sera bridé par rapport à la version “normale”, mais contiendrait tout de même un accès “bas” débit, la téléphonie et les chaînes gratuites de la TNT. Grâce à lui, plus besoin de payer l’abonnement d’une ligne Orange France Telecom, ni de s’acheter un décodeur pour la télévision numérique terrestre. Officiellement, Free entend ainsi lutter contre la “fracture numérique”.

Oui mais laquelle, de fracture numérique ? Côté pécuniaire peut-être, mais qu’en sera-t-il de sa facette géographique ? Free a déjà expliqué son plan de déploiement : la fibre optique sera déployée prioritairement dans les zones où ses parts de marché sont supérieures à 15%. Autrement dit, les zones déjà bien couvertes par l’ADSL. Les campagnes, comme d’habitude, pourront toujours attendre. D’autre part, quelques voix s’élèvent déjà pour dénoncer ce qui pourrait bien s’apparenter à une astuce juridique : la fondation “Fondation Free” viserait moins à démocratiser l’accès à l’internet qu’à contourner les réglementations de la concurrence, et notamment au chapitre “dumping” (vente à perte).

Reste à voir ce qui sortira effectivement du chapeau de Free, qui est connu pour être friand des grands effets d’annonce, même s’il tiennent leurs promesses la plupart du temps (sauf pour les non-dégroupés, de plus en plus mécontents). Rendez-vous donc au premier semestre 2007, période annoncée pour l’arrivée des premières “Freeboxo”…

Apple : le dual-boot officiel !

mercredi 5 avril 2006

Cela fait maintenant presque 10 mois jour pour jour qu’Apple a annoncé un de ses plus gros virages technologiques, celui du passage des processeurs PowerPC à architecture IBM/Motorola aux processeurs x86 d’Intel. Les Macintosh perdaient dès lors leur dernière spécificité matérielle : la puce centrale. Tout le reste avait déjà basculé dans le monde plus standard du PC progressivement au cours des années précédentes : interfaces IDE au lieu de SCSI, cartes PCI et AGP au lieu de NuBus, ports vidéo VGA et DVI… Matériellement parlant, le Mac est donc plus que jamais un PC, à deux exceptions près : le design et le système d’exploitation.

On ne va pas revenir sur le design chez Apple, devenu un véritable cheval de bataille depuis le lancement de l’iMac en 1998 mais qui reste surtout une affaire de goût. Le point du système d’exploitation est nettement plus intéressant, surtout depuis ce passage à l’architecture Intel. Ce dernier rempart matériel tombé, plus rien ne semblait empêcher les ordinateurs à la pomme de pouvoir lancer le système concurrent, l’omniprésent Windows. Pas de chance, il restait un adversaire imprévu à affronter pour y arriver : l’EFI en lieu et place du BIOS. Chacun de ces deux programmes, incorporé à la carte-mère, constitue un peu l’équivalent de l’instinct chez l’homme : les instructions de base implantées dès la fabrication et qui permettent de choisir le système d’exploitation choisi par l’utilisateur. Et à cause du choix de l’EFI, impossible de démarrer Windows XP, ni même le futur Vista.

Pas abattus pour autant, des bidouilleurs sont bien arrivés à une solution artisanale en quelques semaines, mais ça n’était pas l’idéal. Seuls les geeks et les curieux ont vraiment essayé ces manipulations pour la moins fastidieuses, avec formatage obligatoire du disque dur, tout ça pour un Windows XP qui, certes, tourne bien, mais est privé de toute accélération de l’affichage, les pilotes des cartes vidéo étant encore inexistants. Le grand public attendait encore l’arrivée d’un héros, défenseur de la non-technophilie…

Et ce héros est arrivé aujourd’hui, mais venant du côté d’où on n’imaginait même pas qu’il puisse venir : Apple elle-même ! Eh oui, en ce 5 avril 2006, Apple livre une solution gratuite, du nom de “Boot Camp”, pour tous les utilisateurs de Macintosh à processeur Intel pour démarrer Windows XP. Le procédé est simple, s’occupe de tout sans effacer les données déjà présentes, et permet d’obtenir un Windows XP complet (seul le support de quelques gadgets comme la télécommande Apple Remote ou le rétro-éclairage du clavier des portables manque à l’appel). Lancez l’installation du programme, redémarrez en maintenant “ALT”, et voilà… plus qu’à installer Windows XP, que vous aurez bien sûr préalablement acheté.

Une chose qu’on ne peut que reconnaître : ça faisait bien longtemps qu’Apple n’était plus arrivée à surprendre tout le monde de la sorte. Depuis la sortie du premier iMac, il y a 8 ans, toutes les nouveautés et annonces étaient distillées via des rumeurs plus ou moins bien détaillées, y compris la transition vers les processeurs Intel. Apple avait beau pratiquer le culte du secret, il n’était guère efficace qu’auprès du public le moins informé. Mais aujourd’hui, la firme a renoué avec la stupeur générale en livrant ce boot-loader. Le monde informatique est en ébullition depuis cet après-midi, et pour une fois personne pour se pavaner façon “je vous l’avais bien dit”. Flamboyant coup de maître qu’a réalisé Steve Jobs, donc. Reste aujourd’hui à savoir si cette initiative va aider ou desservir le Macintosh. Seul le temps pourra le dire : les premières réactions semblent globalement favorables, mais on n’échappe pas aux funestes pronostics de certains sceptiques y voyant une nouvelle victoire de Microsoft.

Reste que le Mac, capable de lancer les programmes Linux nativement (après l’ajout d’une interface pour X11) et dorénavant de booter Windows XP directement, est bel et bien devenu la machine la plus ouverte du monde ! Quand on se souvient de l’hermétisme de ces mêmes machines il y a encore à peine plus de 5 ans, avant la sortie de Mac OS X, on se rend compte que c’est dans une transition constante que s’est lancée Apple depuis.

Une encyclopédie dans la poche

mercredi 1 mars 2006

Wikipedia, en plus de devenir une encyclopédie de plus en plus respectable, fait foisonner les projets. Et après l’annonce de sa prochaine publication en versions papier, CD et DVD, c’est au tour de l’iPod d’accueillir l’ouvrage en perpétuelle expansion.

Actuellement proposé en versions anglaise, allemande et italienne, Encyclopodia nécessite également d’installer Linux sur son iPod. Ce n’est pas aussi facile que copier des musiques depuis iTunes, mais le tutoriel a l’air plutôt bien fait.

Encyclopodia

Preuve supplémentaire du succès rencontré par ces deux éléments modernes que sont le baladeur et l’encyclopédie collaborative, ce projet met à portée de beaucoup de gens la possibilité de disposer d’une énorme quantité de connaissances, consultable à loisir, au fond de sa poche.

Sur Mac, on veut du PC

jeudi 26 janvier 2006

La sortie récente des deux premiers modèles de Macintosh à base de processeur Intel a vu l’ouverture d’une sorte de concours : qui sera le premier à faire démarrer son Mac sous Windows ? Jusqu’à présent, des solutions d’émulation le permettaient mais au prix de performances nettement dégradées et d’une compatibilité plutôt faillible.

En annonçant le passage de l’architecture d’IBM à celle d’Intel, les responsables d’Apple ont affirmé vouloir tout faire pour qu’un PC ne puisse pas faire tourner Mac OS mais qu’ils ne chercheraient pas à empêcher les gens à faire tourner Windows sur les Mac. Malheureusement, le choix technologique de l’EFI en lieu et place de l’indécrottable BIOS des PC actuels empêche les versions actuelles de Windows de tourner. Faudra-t-il attendre le prochain Vista ?

En tout cas, ça n’empêche pas une armée de bidouilleurs de travailler jour et nuit à trouver une solution. Certains ont d’ailleurs rendu leur iMac flambant neuf tout simplement inutilisable. Et ceux qui n’ont pas les compétences ou le courage de bidouiller surveillent de près les sites spécialisés, dans l’espoir de voir le miracle se produire. L’un d’entre eux a même plus ou moins officialisé le concours en organisant une collecte d’argent dont le fruit ira au premier qui proposera une solution suffisamment simple et efficace pour booter Windows sur Macintel.

Une telle réaction est-elle logique ? Si on met de côté le clivage idéologique existant entre utilisateurs de Mac et utilisateurs de PC, le concept du “dual boot” semble plaisante sur le papier, mais souvent contredite par la pratique. En effet, le fait de devoir redémarrer son ordinateur pour pouvoir utiliser tel ou tel logiciel et, donc, l’impossibilité d’exploiter les deux environnements en même temps, finit presque toujours par forcer au choix de l’un d’entre eux.

Pour ceux qui veulent réellement le meilleur des deux mondes, les technologies de virtualisation sont bien plus prometteuses. La virtualisation, c’est le fait de faire fonctionner en parallèle plusieurs environnements sur le même matériel, comme si on disposait d’autant de machines distinctes. Ces “machines virtuelles” partagent donc toutes les ressources de l’ordinateur (processeur, mémoire, périphériques) à leur façon et avec leurs propres applications. Et c’est d’autant plus intéressant que des échanges entre les machines sont souvent possibles. Et un environnement peut complètement planter, voire perdre ses données, sans jamais interférer sur le fonctionnement de l’autre. Bref, une souplesse et une sécurité qu’aucun multi-boot ne pourra jamais approcher.

Rootkit de Sony : le grand mea culpa

vendredi 30 décembre 2005

Ah, ils doivent faire jolie tête, chez Sony-BMG, en ce moment. Si on leur avait dit, il y a encore deux mois, qu’ils auraient affaire à une véritable armée de consommateurs mécontents qui les forceraient à signer un accord de non-prolifération des logiciels malveillants, ils auraient sûrement bien rigolé.

Et c’est pourtant ce qui vient de se passer, au terme d’une lutte acharnée contre les deux espions de l’éditeur de musique XCP et MediaMax. XCP avait ouvert le bal avec son – désormais fameux, ironique destinée pour un composant modifiant le système pour passer inaperçu – rootkit, et MediaMax avait subi le contrecoup de la colère du public. Sony a même eu droit à un dépôt de plainte par la branche italienne de l’EFF et à deux procès engagés par un procureur texan.

Un accord à l’amiable a été trouvé entre Sony-BMG et les victimes ayant engagé une class-action contre elle. Aujourd’hui, donc, la firme tente de se racheter en indemnisant les victimes d’une part et en signant un acte de bonne volonté d’autre part. Le volet indemnisation est intéressant non par ses chiffres mais car en plus du remboursement des CD incriminés, Sony devra distribuer des bons d’achat gratuits pour des albums valables dans un parmi trois magasins en ligne, y compris le grand concurrent iTunes.

Mais le plus intéressant est bien sûr la charte de bonne conduite vis-à-vis des procédures de protection des droits d’auteur que l’éditeur a accepté de respecter jusqu’en 2008, et dont voici les principaux points :

– XCP et MediaMax seront abandonnés ;
– signaler clairement l’utilisation des dispositifs de protection sur chaque CD les utilisant ;
– garantir que le contrat de licence fait état, et en langage accessible à tous, du système de protection et de son fonctionnement ;
– garantir que le dispositif ne sera installé qu’après acceptation du contrat de licence de la part de l’utilisateur ;
– garantir la possibilité de désinstaller de manière simple et totale le dispositif ;
– prévenir les utilisateur de chaque mise à jour du système et des modifications apportées à son fonctionnement ;
– solliciter (et publier ?) l’avis d’une personnalité extérieur à propos du contrat de licence ;
– solliciter (et publier ?) la confirmation de la part d’un expert en sécurité indépendant que le dispositif de protection ne crée pas de vulnérabilité dans le système de l’ordinateur ;
– s’engager à réparer toutes les failles et problèmes générés par ces logiciels de protection ;
– s’engager à ne collecter que le minimum de données sur l’utilisateur permettant au système de protection de fonctionner.

Certains esprits chagrins ne manqueront pas de remarquer que la plupart de ces conditions ne sont que pur bon sens. D’autres, plus optimistes, espèrent que ce texte (qui reste encore à valider par le juge de l’affaire, ce qui ne devrait pas poser de problème) servira de base à un amendement à l’actuel DMCA, ou même à un hypothétique tout nouveau DRMPA… Sans trop rêver non plus, reconnaissons qu’il s’agit quand même d’un pas dans la bonne direction.

DADVSI : la claque

vendredi 23 décembre 2005

L’information est déjà largement répercutée dans l’ensemble des médias : notre le ministre de la culture a réussi à rater le passage du projet de loi DADVSI, qui avait vraiment tout pour passer, et ce devant un parlement pourtant à majorité absolue UMP. Le texte devait être voté en catiminiLa performance est de taille.

Tout était fait pour que cette loi soit votée, emballée et pesée tranquillement, en cette fin du mois de décembre où les députés sont peu nombreux. Surtout le soir à partir de 21h. Ah, les bonnes vieilles ficelles démocratiques ont la peau dure : cette fois-ci, l’assemblée ne comptait que 59 personnes au moment du vote, soit à peine 10%. Et ce n’est pas tout : au moment même du débat au parlement, des commerciaux de chez Virgin offraient des bons d’achats de musique en ligne aux députés… Et pourtant, le texte devait passer en catimini. C’est raté : par l’explosion du sempiternel clivage droite-gauche, on peut dire qu’elle aura fait beaucoup de bruit.

Alors ? Le ministre a-t-il mal plaidé la cause de ses chers industriels honteusement pillés par les internautes ? Y aurait-il une soudaine fronde au sein même de l’UMP ? Ce qu’on peut globalement en retenir, je pense, c’est qu’il s’agit d’un sujet qui fait nettement plus réfléchir les gens que se l’est imaginé le gouvernement. Les droits d’auteurs, c’est un sujet sérieux qui n’aurait jamais dû être traité dans l’urgence comme cela a été fait. Comme aime à nous le rappeler l’industrie musicale, la diversité culturelle a besoin des retombées économiques de son fruit. Oui mais… les députés sont des hommes, et nul doute que la plupart d’entre eux connaissent au moins une personne qui télécharge illégalement, peut-être même leurs propres enfants.

“J’ai aujourd’hui des enfants de quatorze et seize ans dont internet constitue la culture et l’espace de liberté. C’est ainsi, mes chers collègues ! Sans doute téléchargent-ils des fichiers, et je suis incapable de les contrôler, ne maîtrisant pas comme eux ces techniques. Dans la situation actuelle, ils pourraient être considérés comme des délinquants. Seule la licence globale permet d’éviter ce risque en leur permettant, pour quelques euros par mois, de retrouver la liberté de télécharger sans porter atteinte au droit d’auteur puisque les sommes prélevées seront mutualisées et redistribuées aux auteurs, à l’instar de ce que pratique la SACEM.”

Tels ont été les propos de Marc Le Fur, député UMP soutenant l’amendement 143 déposé par Alain Suguenot, UMP également. D’autres l’ont ensuite défendu, la gauche a suivi. Bilan : 30 à 28, a “licence globale” est acceptée. Mais que les défenseurs de ce concept ne crient pas victoire, le gouvernement a d’ores et déjà décidé d’un nouveau vote et d’un report du débat à mi-janvier. Le temps pour lui d’affûter ses arguements et pour les lobbies de revenir à la charge. Puis après viendra le sénat, et la commission mixte en cas de différend Bref, ce n’est pas fini.

A mon avis, réviser ce vote ne sera pas forcément un mal, car, avouons-le, cet amendement est un poil démagogique, trop simpliste et cache les réels enjeux du DADVSI aux yeux des non-connaisseurs. En effet, c’est bien beau de taxer, mais comment répartir l’argent collecté ? Au pourcentage des ventes, comme le fait la SACEM ? On connaît déjà l’injustice d’une telle répartition, le bouche-à-oreille (et donc la copie privée) étant le vecteur principal des artistes encore inconnus. Au pourcentage des téléchargements, alors ? C’est déjà mieux, mais alors il faudrait mettre en place un système de surveillance globale du réseau… presque irréalisable techniquement, et clairement inenvisageable politiquement. L’idée n’est pas bonne en soi, ou du moins pas suffisante.

En revanche, les parties qui m’inquiétaient le plus dans ce projet de loi risquent toujours autant de passer en toute quiétude. La légalisation sans limite des protections empêchant la copie et la réutilisation des fichiers, la criminalisation automatique de toute tentative de contourner ces protections, le fusil pointé sur le logiciel libre et ses codes sources publiées, bref la menace envers tout un chacun quant à sa façon d’utiliser son ordinateur est en marche. Sans doute grâce aux superbes explications données par le ministère de la culture, comme par exemple “trop d’interopérabilité nuit à la sécurité de la protection des oeuvres” ou “la gratuité est un mythe destructeur de la création”.

Le seul point réellement positif de ce vote aura été de mettre en évidence que la copie privée et les droits d’auteurs forment ensemble un sujet complexe, et qu’il était parfaitement déraisonnable de le traiter en urgence tel que l’envisageait la volonté gouvernementale, comme s’il s’agissait d’une simple formalité. On ne règlera ces problèmes ni par la répression et la peur, ni par une taxe et la démagogie, et l’équilibre entre les intérêts des artistes, des éditeurs et des consommateurs reste à trouver.

Wikipedia : le test !

jeudi 15 décembre 2005

Comme pour répondre en écho à la “controverse Seigenthaler”, l’AFP rapporte que le très réputé magazine Nature a testé le sérieux de Wikipedia. Pour ce faire, ils ont soumis en aveugle 42 paires d’articles divers (celui de Wikipedia et celui de la coûteuse Britannica) à des experts indépendants afin de comptabiliser les erreurs contenues à l’intérieur et voir s’ils pouvaient en distinguer la provenance.

Verdict : impossible de savoir qui venait d’où, ce qui témoigne en faveur de Wikipedia pour l’impression globale de sérieux dégagé par ses articles. Pour ce qui est des défauts respectifs, ont été relevées environ 30% d’erreurs factuelles de plus pour Wikipedia (162 contre 123), mais le même nombre d’erreurs graves (4 de chaque côté). “L’avantage de Britannica pourrait ne pas être grand” conclut l’article, qui estime que les principaux défauts de l’encyclopédie libre sont “la construction contestable de ses articles et l’importance excessive qu’elle donne à des théories controversées”. Pour ces dernières, notons que Wikipedia dispose d’un système d’alerte informant le lecteur si l’article qu’il parcourt est présentement soumis à une polémique, s’il est reconnu comme ne respecant la charte d’impartialité (“Neurtal Point Of View”), ou s’il ne s’agit que d’une ébauche à étoffer avant d’être réellement utilisable.

Wikipedia n’est donc probablement pas tout à fait au niveau d’une encyclopédie “pro” mais dispose plus que jamais de sérieux atouts, à commencer par sa constante évolution, sa réactivité par rapport à l’actualité, la qualité du travail (bénévole, ne l’oublions pas) de ses rédacteurs et correcteurs, et ses dispositifs d’information sur les éventuels défauts de ses articles (ce qu’aucune autre encyclopédie n’ose offrir à ma connaissance). En plus de constituer un admirable effort de partage du savoir, elle reste donc un très bon point de départ pour la majeure partie des travaux de recherche.

Un virus qui a la tchatche

vendredi 9 décembre 2005

Les virus ont toujours suivi de près le développement de la micro-informatique. Ils se sont sans problème adaptés à la circulation des données sur disquette, sur disque dur, sur CD-ROM, sur clé USB, et via les réseaux interconnectés et leurs protocoles d’échange de données. Ainsi, Melissa a inauguré l’utilisation de l’e-mail, ILOVEYOU du scripting système et Blaster l’exploitation des failles du couple système/navigateur web (Windows & Internet Explorer, pour ne pas les nommer). Mais ces derniers temps, un nouveau type de virus commence à se multiplier : celui qui utilise la messagerie instantanée (MSN, AIM, ICQ, etc.).

Le principe est toujours le même : le but est de vous amener à cliquer sur un lien menant directement à un fichier infecté. Et pour cela, il faut vous donner envie de cliquer. Récemment, un virus nommé “Aimdes.E” a commencé à se propager en se faisant passer pour une cyber-carte de voeux envoyée par un ami. Mais plus fort encore, “IM.Myspace04.AIM” cherche à vous convaincre de cliquer sur le lien fatal en vous faisant carrément croire à un message (“lol ça c’est cool”) envoyé par une des personnes de votre liste AIM… et apparemment, les gens ayant répondu à cette invitation se sont vues rétorquer : “lol, non ce n’est pas un virus”.

Bien sûr, la ficelle est grosse et ça prête plus à rire qu’à s’alarmer. Mais n’oublions pas si vite les dégâts qu’on causé les célèbres virus de ces dernières années (CodeRed, Nimda, Klez, SoBig, MyDoom, Sasser…) alors que leur procédé de propagation était déjà connu ! Et quand on voit les avancées impressionnantes que font certains robots-tchatteurs (j’invite les anglophones à rencontrer ALICE), nul doute que ce “IM.Myspace04.AIM” n’est qu’un coup d’essai annonçant de bien plus dangereux avatars à venir…

Ton brevet ou notre santé d’abord ?

dimanche 23 octobre 2005

Le gouvernement taïwannais vient de se poser une question d’un intérêt fondamental : “qu’est-ce qui est le plus important entre la santé de mon peuple et l’argent récolté par d’autres personnes ?

J’imagine que tout le monde (en tout cas tous ceux doués d’un minimum de bon sens) a la même réponse sur le bout de la langue. Mais il est un domaine où la question nécessite d’y réfléchir beaucoup plus sérieusement : celui de l’entreprise internationale privée. La question qui s’est réellement posée est en réalité celle-ci : “qu’est-ce qui est le plus important entre la santé de mon peuple et l’argent récolté par un laboratoire pharmaceutique étranger ?

La problématique est simple : comme vous le savez surement grâce au tapage incessant que nous en font les médias, le H5N1, plus connu sous le nom de grippe aviaire, inquiète le monde entier. Et même si ses quelques dizaines de morts en 2 ans sont un chiffre ridicule face aux 4 millions sur la même période à cause du paludisme (les occidentaux aiment décidément beaucoup se faire peur), la psychose est déjà bien installée. Et ce n’est pas Roche, le laboratoire pharmaceutique suisse, qui va s’en plaindre : son brevet international lui accorde le droit exclusif de fabriquer et de vendre non pas LE médicament contre le H5N1 mais un UN médicament, le Tamiflu, considéré comme le moins inefficace.

Peur, urgence, brevet, exclusivité : tous les ingrédients sont réunis pour faire allègrement augmenter le prix du Tamiflu, et donc les recettes de Roche. Pour ne pas passer pour un monstre aux yeux du monde, l’entreprise a annoncé avoir lancé des négociations en vue de faire fabriquer le médicament par d’autres laboratoires, afin d’augmenter la production (et hop, on augmente encore ses ventes sans avoir à investir). Mais aujourd’hui, le gouvernement taïwannais annonce avoir décidé de lancer sa propre production du médicament sans attendre la fin des négociations avec Roche. Et le responsable de la santé au Taïwan d’accuser le laboratoire privé de vouloir noyer le poisson : “Nous avons fait preuve de bonne volonté et nous respectons leur brevet, mais la protection de notre peuple est la chose la plus importante.

La négociation a-t-elle été véritablement bien menée d’un côté comme de l’autre, on l’ignore bien sûr, mais le problème n’est pas là. Ici se trouve une fois de plus épinglé la question de la santé contre les intérêts privés, conflit qui aboutit encore trop souvent à la victoire de ces derniers et ralentit considérablement la vitesse de réaction des organisations sanitaires. Sans forcément les faire disparaître, il faudrait forcer les brevets médicamenteux à inclure une clause de préemption gouvernementale en cas d’urgence. Si cette urgence (je pense) nettement exagérée pouvait au moins avoir le mérite de faire méditer les autorités là-dessus, un grand pas pourrait enfin être franchi…