Publié dans Texte Actualité divers

Un tiers des Français seraient dépendants aux écrans

hyper connexionEn moyenne, les Français passeraient 4 heures et 6 minutes par jour, sans distinction entre cadre professionnel ou privé, sur leurs écrans.

Les conclusions de cette étude Elabe pour AXA Prévention et SOS Addictions sont on ne peut plus claires : les Français souffrent d’hyper connexion. Devenus une extension de la main, smartphones et autres tablettes sont ainsi désormais incontournables pour un tiers des Français, qui se disent dépendants aux écrans. Pour 60% des sondés, il serait même inconcevable de passer une journée sans son téléphone.

Interrogés par BFMTV, plusieurs occupants d’une terrasse parisienne tentent d’expliquer le pourquoi d’une telle dépendance. Pour Christophe, sans smartphone, « on se dit que comme avec les clés, on va être en galère si on ne l’a pas. » « Tu regardes l’heure, puis une notification, puis tu restes dessus », précise quant à lui Simon, qui assure occuper deux heures de ses journées sur ses applications.

Toujours selon cette étude, les habitudes du quotidien tendent confirmer cette idée de dépendance. Ainsi, pour 61% des Français, le premier réflexe au lever est de consulter son smartphone et près d’un Français sur 2 (48 %) consulte « au cas où » son mobile ou sa tablette toutes les 10 minutes.

Risques d’athazagoraphobie ?
Toujours à notre antenne, Laurent Karila, addictologie et porte-parole de SOS addictions, pointe du doigt les dangers insoupçonnés d’une utilisation continue du smartphone et d’autres appareils électroniques.

« C’est devenu un doudou, le smartphone, il y en a même qui développent ce qu’on appelle l’athazagoraphobie (peur d’être oublié ou ignoré, ndlr), ils attendent de manière anxieuse qu’on réponde à leur SMS, leurs emails, leurs statuts sur les réseaux sociaux etc … », explique-t-il.

Pourtant, parmi les interrogés, la prise de conscience de tels dangers semble réelle. Ainsi, ils sont 87% considérer comme néfaste la surexposition aux écrans, en particulier chez leurs enfants.

Afin d’éviter l’hyper connexion, il est ainsi conseillé de pratiquer une activité physique quotidienne et bannir les écrans lors des pauses repas. Si l’addiction ne peut se résoudre immédiatement, il convient également de réaliser une déconnexion progressive, en retirant quelques applications de son smartphone par exemple.

Publicités
Publié dans Texte Actualité divers

Internet fera face à une pénurie d’adresses IP

pénurie d'adresses IPDès le début du mois de novembre, les réserves d’adresses IP « classiques » viendront à manquer. Un autre protocole, encore peu utilisé, devrait prendre le relais.

L’échéance se concrétise. À compter du 7 novembre, « Internet ne cessera pas de fonctionner mais cessera de grandir », relate l’Arcep. À cette date, toutes les combinaisons possibles d’adresses IP « classiques » (les IPv4), auront en effet été générées en Europe. Résultat : une pénurie de ces cartes d’identité du Web, qui permettent à chaque machine, de l’ordinateur domestique au serveur hébergé dans un data center, de disposer d’un identifiant unique.

Cette pénurie est loin de prendre Internet par surprise. À sa création, en 1983, le protocole IPv4 n’a pas été conçu pour embrasser l’ensemble des objets connectés aujourd’hui actifs. Toutes les adresses IPv4 sont en effet composées de 32 chiffres binaires, constitués de 0 ou 1. Le nombre de combinaisons à créer est donc limité et avoisine les 4 milliards. Une fois ce volume dépassé, début novembre, le RIPE, l’organisme européen qui alloue des adresses IP aux entreprises des télécoms, ne pourra plus en distribuer.

Petits arrangements et marché noir
Face à cette pénurie imminente, plusieurs acteurs ont pris les devants. Certains sites Internet se spécialisent d’ores et déjà dans la vente aux enchères d’adresses IP. Ainsi d’auctions.ipv4.global ou encore des bien nommés ipv4brokers et ipv4mall. L’Arcep, le gendarme des télécoms, estime que les prix de ces adresses devraient « s’envoler », pour « doubler d’ici à deux ans ». Le cap des 100 euros par adresse IP, contre 30 euros en moyenne actuellement, est lui aussi envisageable. De quoi susciter un fort appât du gain: mi-septembre, Heficed, une société spécialisée dans la gestion d’adresses IP et leur monétisation, révélait l’existence d’un détournement massif d’adresses IP, pour l’équivalent de 30 millions de dollars.

Internet fera face à une pénurie d'adresses IP

Les fournisseurs d’adresses IP se sont eux aussi préparés à leur façon. Orange, par exemple, possède 30 millions d’adresses en réserve, relate Challenges. Constat similaire pour les trois grands autres opérateurs, qui disposent de leurs propres stocks. « Les nouveaux entrants auront du mal à obtenir des adresses IPv4. Cela constituera une réelle barrière à l’entrée pour eux », analyse auprès de BFM Tech Pierre Beyssac, président de la société de stockage de fichiers Eriomem.

Une « nécessité vitale »
D’autres fournisseurs d’accès Internet ont, eux, depuis longtemps opté pour une parade: mutualiser ces maigres ressources, en ayant recours au Carrier-Grade NAT ou CGN, qui permet de fournir la même adresse IP à plusieurs internautes à la fois. La méthode n’est pas sans risques. Elle rime avec une connexion plus lente, l’impossibilité de jouer à certains jeux mais surtout à des problèmes de sécurité. Car comment être certain, dans le cadre d’une enquête, de mettre la main sur le bon suspect si l’adresse IP qu’il utilise est partagée par plusieurs personnes ?

Une fois toutes ces adresses allouées, tout ne sera néanmoins pas perdu. Un autre protocole, l’IPv6, qui existe depuis les années 90, devrait être amené à prendre le relais. Il repose sur un nouveau format d’adresses, quasi illimitées. Ce protocole viendrait en effet répondre aux besoins de 667 millions de milliards d’appareils connectés à Internet sur chaque millimètre de surface terrestre.

« La pénurie est anticipée depuis 1995 environ », rappelle Pierre Beyssac. « Elle a motivé le développement, dès cette époque, d’IPv6. Son adoption a été lente car son principal atout réside en l’approche de cette pénurie et beaucoup de sites et fournisseurs n’ont malheureusement pas jugé utile de s’y préparer tant qu’elle ne les frappait pas directement. » Le protocole est désormais vu d’un tout autre œil. L’Arcep voit en le fait de l’adopter au plus vite une « nécessité vitale ».

Publié dans Texte Santé

Comment sera-t-on soigné dans 10 ans ?

Comment sera-t-on soigné dans 10 ansÀ l’horizon 2030, notre expérience de patients n’aura plus grand-chose à voir avec celle que l’on expérimente actuellement. Technologies, approches thérapeutiques, relations avec le corps médical … tout va changer.

Préparez-vous à regarder la médecine d’un autre œil. Car tout ce que vous connaissez déjà va évoluer : aussi bien d’un point de vue technique que d’un point de vue humain. Avec, à coup sûr, une vraie transformation de la relation soignant-patient.

L’hôpital s’installera à la maison
Qui se souvient du temps où une opération de la cataracte nous clouait une semaine au lit dans un service hospitalier ?  Aujourd’hui, on rentre à la maison le jour même, outre le boom de la chirurgie ambulatoire, de plus en plus de traitements sortent des couloirs de l’hôpital. « Demain, le domicile sera le lieu principal d’organisation des soins », prédit François Bourse, directeur d’études au think tank Futuribles, qui a publié avec le Leem (Les Entreprises du médicament) l’analyse prospective Santé 2030.

Aux hôpitaux, les urgences et les pathologies qui nécessitent des équipements de pointe, à la maison, la prise en charge des maladies chroniques. Question de pragmatisme, puisque nos établissements ne peuvent plus accueillir tout le monde et de confort aussi, puisque l’on se sent souvent mieux chez soi. D’ailleurs, 8 Français sur 10 se disent prêts à tenter l’expérience de l’hospitalisation à domicile. Un virage entamé il y a dix ans avec l’arrivée des premiers traitements oraux pour le cancer : on peut par exemple prendre certaines chimiothérapies à domicile, d’autant que leur toxicité est désormais mieux contrôlée, avec moins d’effets indésirables.

La dialyse chez soi pourrait également concerner 20 % des patients d’ici à 2 030 (contre 7 % aujourd’hui). Les intervenants de l’équipe médicale (aides-soignants, infirmiers …) se relaient auprès du patient, dans son cadre de vie, et des professionnels assurent une permanence téléphonique 24 heures/24 en cas de problème.

La voix des patients va compter
Bonne nouvelle, les patients auront (enfin) voix au chapitre  « Il y a un changement de paradigme : on passe d’une relation très hiérarchisée à un véritable partenariat. Dans les pathologies chroniques comme le diabète ou les maladies rhumatismales, les médecins possèdent le savoir théorique mais les patients vivent la maladie au quotidien : l’objectif est de mettre ces expériences en commun », explique la docteure Christelle Sordet, rhumatologue au CHU de Strasbourg.

Cela passe par la formation de « patients experts », qui accumulent des connaissances et des compétences, pas uniquement pour apporter leur témoignage mais aussi pour aider les autres patients à mieux prendre en charge leur maladie, par exemple en intervenant dans des ateliers d’éducation thérapeutique. Ces « nouveaux profils » côtoient désormais les soignants sur les bancs de la fac dans le cadre de diplômes universitaires ouverts aux patients à Paris (Université des patients de la faculté de médecine Pierre et Marie Curie), Grenoble ou Aix-Marseille.

« À l’avenir, les patients experts seront de plus en plus nombreux à être intégrés dans les équipes médicales et pourront également intervenir dans la formation des étudiants en médecine », note le médecin.

Davantage de médicaments sur mesure
Il y a fort à parier que dans dix ans, si l’on souffre de la même maladie que celle qui affecte une amie aujourd’hui, notre prise en charge différera totalement de la sienne. On s’éloigne en effet du vieux principe « une pathologie, un traitement ». « Aujourd’hui, on ne traite plus “un” cancer du sein ou du poumon. Pour une bonne partie des médicaments anticancéreux, on teste des caractérisations génétiques ou cellulaires de la tumeur, très spécifiques au patient, et cet effort pour développer des thérapies ciblées va encore s’accentuer », assure Thomas Borel, directeur scientifique du Leem.

Plutôt que d’administrer ou d’injecter un seul produit, on développera des combinaisons de traitements uniques. Une évolution rendue possible grâce à l’intelligence artificielle qui affine les diagnostics, mais aussi aux marqueurs biologiques et génétiques que l’on décode de mieux en mieux. À partir d’une prise de sang ou d’une biopsie, on peut établir la carte d’identité de 20 % des tumeurs  d’ici à dix ans, ce sera plus de la moitié d’entre elles.

Même tendance avec les biothérapies (qui utilisent des anticorps spécifiques) dans la polyarthrite rhumatoïde, les maladies chroniques de l’intestin ou les maladies neurodégénératives du type Parkinson et sclérose en plaques. Bienvenue dans l’ère de la médecine ultra-personnalisée.

Un jumeau numérique en guise de cobaye
La prochaine mutation médicale se passe « in silico », autrement dit sur ordinateur. Imaginez une copie très fidèle de vous-même, avec les mêmes facteurs de risques, les mêmes problèmes de santé ou les mêmes artères tortueuses : c’est ce que l’on appelle un jumeau numérique. « Pour l’instant, il est encore trop compliqué de reproduire le corps entier d’un patient. Mais on sait copier un organe ou une petite partie, comme l’aorte, grâce aux scanners qu’il a passés.

On obtient une image en 3D avec la forme et le volume exacts, mais aussi les mêmes propriétés mécaniques, par exemple la rigidité de la paroi artérielle, la présence de calcifications.  Ce modèle nous permet de simuler le déploiement d’une endoprothèse pour traiter un anévrisme de l’aorte », détaille le Pr Jean-Noël Albertini, chirurgien cardio-vasculaire au CHU de Saint-Étienne, cofondateur de la start-up PrediSurge. Donc de fabriquer une prothèse parfaitement adaptée et d’anticiper d’éventuelles complications au moment de la pose.

« En permettant aux chirurgiens de s’entraîner virtuellement avant une chirurgie ou de visualiser l’organe pendant l’opération au lieu d’opérer à l’aveugle, cette technologie va rendre les interventions plus sûres », s’enthousiasme le Pr Albertini. D’autres start-up travaillent sur les jumeaux numériques avec des prothèses d’épaules ou de genoux parfaitement adaptées à la façon dont on bouge, ou encore un programme qui permet de simuler une opération de la cataracte. Il sera bien pratique de disposer d’un cobaye virtuel qui ne risque rien  pour mieux nous soigner en vrai.

Des mini-organes pour tester nos traitements
Révolution aussi dans les labos : sur une petite puce en plastique de la taille d’un ongle, les chercheurs font « pousser » un mini-cœur, un foie ou des poumons à partir de nos cellules souches (le plus souvent grâce à des cellules de peau). Développées dans un liquide de culture proche du sang, les cellules cardiaques battent en rythme, les cellules pulmonaires respirent … « Ces organes sur puce ont deux intérêts majeurs.

En premier lieu, la réduction du coût et de la durée des tests cliniques pour développer de nouveaux médicaments, en évitant notamment les expérimentations sur animaux. Des traitements contre Alzheimer pourront ainsi être testés sur puce afin d’évaluer leur effet réel sur les neurones des patients. En second lieu, ils permettent de pousser encore plus loin la médecine personnalisée : on pourra par exemple tester différentes chimiothérapies (en fabriquant des tumeurs et des organes sur puce avec les propres cellules du patient) pour trouver la molécule à laquelle le patient répond le mieux », détaille Guilhem Velve Casquillas, ancien chercheur en biologie cellulaire, président de la société Elvesys, laboratoire de recherche et « accélérateur d’entreprises innovantes ». «

Ces technologies vont commencer à être utilisées de façon courante d’ici une dizaine d’années », estime le spécialiste. Aucun doute, la révolution des blouses blanches est en marche.

Publié dans Texte Actualité divers

Microsoft pourrait lancer sa nouvelle tablette

Microsoft pourrait lancer sa nouvelle tabletteLe géant américain a programmé un événement à New York, début octobre, probablement pour présenter sa nouvelle gamme de produits Surface.

Microsoft a envoyé des invitations pour une présentation prévue le 2 octobre prochain à New York. L’événement devrait être consacré au lancement de nouveaux produits de la gamme Surface.

Il serait notamment question de la tablette hybride Surface Pro 7 qui se doterait désormais d’un port USB-C à la place de la connectique magnétique Surface Connect, selon Windows Central.

Elle ne supporterait néanmoins pas la technologie Thunderbolt 3. Sont aussi attendus le produit convertible tablette/PC Surface Book 3 et l’ordinateur portable Surface Laptop 3 qui serait équipé de nouveaux processeurs Intel.

Les sites spécialisés avancent aussi la possibilité que Microsoft lève le voile sur une tablette Surface équipée de deux écrans, son fameux projet connu sous le nom de code Centaurus. Cet appareil, qui devrait tourner sous le système d’exploitation Windows Lite, n’est toutefois pas attendu avant au moins une année.

Publié dans Texte Actualité divers

Ondes électromagnétiques : pourquoi tant de haine ?

Ondes électromagnétiquesInhérentes au fonctionnement de nos smartphones ou au transport de l’électricité, les ondes électromagnétiques font régulièrement office de suspectes en raison de leur impact sur notre santé. L’évolution technologique ne fait que renforcer ces inquiétudes.

Elles sont insaisissables, invisibles, et suscitent des craintes grandissantes auprès du grand public. Utilisées depuis des décennies, les ondes électromagnétiques font régulièrement irruption dans le débat citoyen, à mesure du déploiement de nouvelles technologies telles que la 4G, la 5G, ou encore les compteurs Linky.

Entre fantasmes et impact réel sur la santé, il est souvent difficile de faire le tri. La mise en cause des ondes électromagnétiques est renforcée par l’absence de consensus de la communauté scientifique, malgré des études rassurantes et d’importantes contraintes réglementaires.

Basses fréquences et radiofréquences
Si les ondes électromagnétiques de très haute fréquence sont utilisées dans l’industrie médicale ou nucléaire, le grand public est principalement exposé à deux types d’ondes : les ondes d’extrêmement basse fréquence et les radiofréquences. Les premières sont celles qui sont utilisées pour acheminer de l’électricité le long des lignes à haute tension. Les secondes sont utilisées entre autres  par nos smartphones pour envoyer et recevoir des données.

Les ondes d’extrêmement basse fréquences font partie du paysage français depuis de très longues années, suscitant également des inquiétudes de la part des habitants. Et pour cause, ces champs électromagnétiques ont des effets avérés sur nos cellules. Le cas extrême de cette exposition étant l’électrocution.

Mais ce sont les conséquences d’une exposition permanente et bien plus modérée qui attisent le plus de craintes, notamment suite à plusieurs études scientifiques épidémiologiques. Comme le rappelle le ministère des Affaires sociales et de la Santé, une association statistique existe entre une exposition régulière à ce type de champs magnétiques et la leucémie chez l’enfant.

L’arrivée déterminante du mobile
Une étude de de l’Institut national de la santé et de la recherche médicale (Inserm) a constaté un plus grand risque de leucémie chez l’enfant de moins de 15 ans, vivant à moins de 50 mètres d’une ligne à très haute tension (225-400 kV). Les conséquences en termes de santé publique restent cependant limitées: d’après l’étude, qui dénombre 30.000 enfants vivant à moins de 50 mètres d’une ligne à très haute tension, l’excès de risque correspond à moins d’un cas de leucémie aiguë chez l’enfant chaque année.

Avec l’arrivée du téléphone mobile dans les années 90, les radiofréquences ont régulièrement été pointées du doigt pour leur impact potentiel sur la santé humaine. Pour l’heure, les études épidémiologiques sont rassurantes. L’une des principales études internationales, menée en 2012, n’a pas établi d’augmentation de risque de gliome et méningiome (deux cancers cérébraux) avec l’utilisation de téléphones portables.

Un rapport de l’ANSES publié en 2013, basé sur 309 articles scientifiques publiés entre avril 2009 et décembre 2012  évoque cependant la possibilité d’augmentation du nombre de gliomes chez les utilisateurs “intensifs” du téléphone mobile, ayant cumulé plus de 1.640 heures d’exposition.

Afin de respecter le principe de précaution, des limites d’exposition sont imposées aux fabricants de smartphones, ainsi qu’aux opérateurs en charge des antennes-relais. Lors d’une enquête réalisée en 2014 et basée sur près de 3000 mesures, l’Agence nationale des fréquences (ANFR) a constaté que les valeurs limites d’exposition du public aux champs électromagnétiques étaient respectées dans l’intégralité des cas.

Du côté des smartphones, certains fabricants ont néanmoins été épinglés pour avoir dépassé la limite réglementaire. Ils ont alors dû procéder à des mises à jour pour s’y conformer.

Des débats cycliques
Toutefois, la majorité de l’exposition aux radiofréquences est liée à la téléphonie mobile. Ce qui implique des débats réguliers, avec la multiplication des appareils en circulation et l’évolution des technologies de transmission des données. Après l’essor de la 4G, la 5G, qui sera déployée au cours des années 2020, suscite de nouvelles craintes quant à l’exposition du public aux ondes.

Pourtant, elle s’appuiera en grande partie sur les infrastructures utilisées pour la 4G, explique Gilles Brégant, directeur de l’ANFR, à BFM Tech. “C’est comme un système de poupées russes. Les fréquences de la 2G ont été réutilisées pour la 3G . La 4G réutilise des fréquences de la 2G et de la 3G. La 5G va réutiliser toutes ces fréquences en complément de ses propres fréquences” détaille-t-il.

Ce sont ces fréquences supplémentaires, bien plus larges et pouvant faire transiter bien plus de données, qui sont visées par les opposants au déploiement de la 5G. Handicapées par une moindre portée, ces dernières devront s’appuyer sur un réseau bien plus dense d’antennes, qui ne seront plus placées sur les toits mais sur les lampadaires ou abribus.

Pour limiter le niveau d’émission, ces dernières ne seront sollicitées qu’en cas de besoin de la part d’un utilisateur à proximité  par exemple pour télécharger un fichier volumineux.

A la différence des antennes-relais déjà installées, elles cibleront chaque smartphone avec précision, préservant les utilisateurs se trouvant à proximité. Ces dispositifs doivent subir des études d’impact avant d’être mis en place et devront se conformer aux limites d’exposition déjà existantes.

La crainte des ondes électromagnétiques a récemment pénétré nos foyers, à l’occasion du déploiement du compteur intelligent Linky par Enedis. Malgré des mesures montrant un impact comparable à celui d’une télévision ou d’un chargeur d’ordinateur portable, Linky a été ciblé par plusieurs associations, y compris devant la justice. Comme le montre un rapport de l’ANSES datant de juin 2017, les associations Priartem électrosensibles de France et Robin des Toits ont été particulièrement actives dans le combat face à Enedis.

“Alors que la controverse sur les antennes-relais a été soulevée par l’installation de sources d’exposition dans l’espace public, la polémique sur les compteurs communicants mobilise d’autres processus psychosociaux dès lors que la source est imposée et implantée dans l’espace privé. Elle est interprétée comme une source de menace venant de l’intérieur du chez-soi, ce qui est difficilement acceptable” complète le rapport, repris par nos confrères de Libération.

Un business florissant
A ces nombreuses craintes s’ajoutent les témoignages d’individus s’estimant électrosensibles. Une maladie qui ne fait pas consensus au sein de la communauté scientifique, et qui se distingue par la multitude des symptômes associés. Dans son rapport de 2013, l’ANSES mentionnait des études mettant en évidence “une association entre les symptômes perçus et la distance à l’antenne relais estimée par les riverains, plutôt que le niveau d’exposition réel”, laissant présager un effet avant tout psychologique.

En mars 2018, l’agence évoque une absence de preuve de causalité entre exposition aux ondes et électrosensibilité, tout en insistant sur la réalité des souffrances exprimées par les patients et sur la nécessité de poursuivre les travaux de recherche sur le sujet. Pour les scientifiques comme pour les régulateurs, le risque ou l’innocuité des ondes électromagnétiques est d’autant plus difficile à établir que ces dernières se multiplient et se cumulent.

Certaines entreprises ont choisi de jouer sur ces peurs pour vendre des produits “anti-ondes”. Leur promesse : préserver l’utilisateur des méfaits des ondes électromagnétiques, quand bien même ces derniers restent hypothétiques. Parfois coûteux, de tels produits  comme des patchs à coller sur son smartphone ou des vêtements spécifiques  se révèlent souvent inutiles. Récemment la marque Petit Bateau a également fait le choix de surfer sur la tendance en proposant à la vente un bonnet anti-ondes pour bébé.

Dans les prochaines années, l’absence de consensus sur les effets des ondes électromagnétiques sur la santé,  notamment à long-terme pourrait laisser une place grandissante aux débats sur le sujet. Face à ces incertitudes, les solutions les plus simples sont aussi les meilleures pour quiconque désire appliquer un principe de précaution supplémentaire : éloigner son smartphone de son oreille, téléphoner lorsque le réseau est bon, ce qui peut réduire de plus de 99% le niveau d’exposition, et limiter la durée des appels. En cas de doute sur le niveau d’exposition de son environnement quotidien, par exemple à proximité d’une antenne-relais, l’ANFR proposer de venir réaliser une mesure gratuitement.

Publié dans Texte Actualité divers

Aux États-Unis, les seniors passent bien plus de temps devant un écran que les jeunes

ecranOn parle souvent des problèmes engendrés par l’exposition aux écrans des plus jeunes. Mais une étude américaine montre que plus on vieillit, plus on passe du temps à regarder des écrans.

Smartphone, tablette, ordinateur, jeux vidéos, télévision : aujourd’hui les écrans sont partout. Et contrairement à une idée répandue, les plus jeunes ne seraient pas ceux qui passent le plus de temps devant.

D’après une étude de Nielsen réalisée aux États-Unis et relayée par The Economist, les Américains âgés de plus de 65 ans passeraient plus de dix heures par jour à visionner des images ou du texte sur les divers écrans en leur possession.

Des seniors qui passent plus de 7h par jour devant la TV
Deux tiers de ce temps est consacré à la télévision, l’écran favori des personnes âgées de plus de 35 ans. Les seniors se démarquent aussi par un usage plus important de la tablette que les autres générations.

infographie temps ecran.jpg

Sans surprise, les seniors américains ont des consommations d’écran radicalement opposées à celle des plus jeunes. Selon l’étude de Nielsen, les 18-34 ans privilégient leur smartphone à la télévision.

Les 18-34 ans passent plus de temps sur leur smartphone
Ces différences d’usages se creusent au fil des générations. Lorsque l’on analyse la répartition totale du temps d’écran par appareil, on s’aperçoit en effet que plus les personnes sont âgées, plus elles préfèrent regarder la télévision que leur smartphone.

catégorie

infographie temps ecran

Toutes générations confondues, une tendance se dégage : le recul progressif de l’ordinateur. Les PC et les portables sont de moins en moins utilisés chaque année par toutes les catégories d’âges qui lui préfèrent la tablette et le smartphone.

Et en France ?
Dans l’Hexagone, il semble que nous passions un peu moins de temps devant nos écrans comparé à nos voisins d’outre-Atlantique. Selon Santé Publique, les Français passent près de huit heures par jour devant les écrans, toutes catégories d’âge confondus.

D’après une étude du cabinet eMarketer, en 2017, la télévision était toujours l’appareil le plus consulté par les Français avec environ 3h51 de temps d’écran par jour. Moins donc qu’aux États-Unis .

Pour rappel, en avril 2019, l’Organisation mondiale de la santé (OMS) recommandait aux enfants de moins de 5 ans de ne pas passer plus d’une heure par jour devant les écrans.

Publié dans Texte Actualité divers

Bientôt une solution aux querelles pour le Wi-Fi à la maison ?

Wi-FiUne équipe de chercheurs a mis au point un programme capable de déterminer quel contenu nécessite plus de bande passante qu’un autre. Améliorant ainsi l’expérience des uns, sans détériorer celle des autres.

Quand un réseau Wi-Fi est partagé entre plusieurs utilisateurs, il peut devenir difficile de profiter de contenus vidéo en bonne qualité. Pixellisation de l’image, ralentissements … De quoi gâcher l’expérience d’un bon film ou d’un match de football. Une équipe de chercheurs du Massachusetts Institute of Technology (MIT) pense avoir trouvé la solution pour venir à bout de ce problème, a repéré le média américain spécialisé Engadget.

Le groupe du Computer Science and Artificial Intelligence Laboratory a mis au point un programme appelé Minerva, capable d’analyser les vidéos avant de les lire pour déterminer dans quelle mesure l’expérience utilisateur serait affectée si elles étaient lues en qualité inférieure.

Répartir la bande passante selon le contenu
Un match nécessite une meilleure qualité d’image qu’un banal dessin animé. Actuellement, quand deux personnes sont connectées à un même réseau Wi-Fi, que l’une regarde du football sur son ordinateur et que l’autre choisit de voir La Reine des neiges sur sa tablette, elles se partagent équitablement la bande passante. Si ce n’est pas dérangeant quand il s’agit d’un dessin-animé, ça l’est nettement plus pour un match en haute définition.

Avec Minerva, le problème n’existera plus : le programme déterminera que le contenu sportif nécessite plus de bande passante que l’autre. Mais le champ d’application de ce programme informatique ne se limitera pas au Wi-Fi familial. Il pourrait fonctionner sur les connexions internet de régions entières et rendrait ainsi très heureux les amateurs de plateformes de streaming comme Netflix.

Mieux encore, le système pourrait être introduit par les fournisseurs vidéo sans avoir besoin de changer de matériel, assure l’équipe. Mais il faudra se montrer patient, le projet est encore au stade expérimental.