ecole de musique piano
     
menu
 
 
 
 
 
 

QU'EST-CE QUE LA RÉALITÉ VIRTUELLE ?

 



 

 

 

 

 

La réalité virtuelle  Publié le 12 décembre 2017

Nouveaux smartphones, casques de réalité virtuelle… aujourd’hui, tout le monde connaît de près ou de loin la réalité virtuelle. Elle permet de s’immerger, grâce à un ensemble de technologies, dans une reproduction numérique du monde réel ou dans un monde imaginaire. La réalité virtuelle est présente dans des domaines très variés allant du cinéma à la recherche, en passant par les jeux vidéo et l’industrie. Quelles sont les technologies associées à la réalité virtuelle ? Quels sont ses enjeux dans l’industrie et la recherche ? L’essentiel sur… la réalité virtuelle.

QU'EST-CE QUE LA RÉALITÉ VIRTUELLE ?
La réalité virtuelle s’appuie sur un ensemble de technologies qui immergent une personne dans une reproduction numérique du monde réel ou dans un monde imaginaire. Plus le nombre de sens mobilisés est important – la vue, l’ouïe et le toucher – et plus l’immersion est efficace.

Grâce à différents outils comme des lunettes stéréoscopiques (le même type de lunettes que pour regarder des films en 3D) ou un casque immersif, l’utilisateur peut se déplacer dans un environnement plus ou moins sophistiqué, en 3D. Il peut vivre également une expérience interactive en manipulant virtuellement des objets, jusqu’à en ressentir le poids et la texture. L’expérience peut être enrichie par des manettes, gants, volants ou autres interfaces haptiques, pour des interactions plus complexes. Toutes ces interactions avec l’environnement virtuel ont lieu en temps réel.

Au-delà des scènes visibles en images de synthèse, l’immersion peut intégrer un avatar, qui évolue dans la scène au gré des intentions de son utilisateur. Toutes ces performances sont rendues possibles grâce à d’importants développements logiciels et algorithmiques qui permettent de restituer fidèlement l’environnement et de simuler finement les interactions entre les différents objets de la scène virtuelle au millimètre et à quelques millisecondes près.

RÉALITÉ VIRTUELLE, 
AUGMENTÉE ET MIXTE, KÉSAKO ?

La réalité virtuelle est l’ensemble des technologies qui permettent une immersion dans une reproduction numérique du monde réel ou dans un monde imaginaire.
La réalité augmentée permet d’incruster, superposer à la scène réelle d’un flux vidéo capté par une caméra, des images virtuelles fixes ou animées en temps réel. Il existe déjà de telles applications dans le tourisme : monuments et restaurants sont ainsi montrés sous leur apparence d’il y a 500 ans ou décrits sur l’écran des smartphones en temps réel.
Un cran supplémentaire sera franchi avec la réalité mixte : il sera possible d’interagir avec un objet virtuel (personnages, objets, machines…) incrusté dans la captation vidéo de la scène réelle. Par exemple, on pourra étudier et valider l’utilisation d’un robot grâce à son avatar virtuel au stade de la conception, tout en le pilotant dans un environnement industriel réel.
 
L'HISTOIRE DE LA RÉALITÉ VIRTUELLE EN QUELQUES DATES CLÉS
La réalité virtuelle apparaît dans les années 50, d’abord dans le domaine du cinéma. Depuis, les progrès dans le domaine du numérique – logiciel, graphisme, algorithme, optimisation des capacités de calcul - ont permis de développer les technologies de réalité virtuelle dans de nombreux secteurs de l’économie. Aujourd’hui, la mise sur le marché de casques de réalité virtuelle (ou casques VR) permet aux industriels et au grand public des expériences immersives beaucoup plus accessibles.


Années 50-60

L’ancêtre de la réalité virtuelle est le Sensorama. Cette machine, imaginée en 1956, puis créée en 1962 par Morton Leonard Heilig, cinéaste, philosophe et documentariste permettait à son utilisateur de regarder un film en s’immergeant dans un univers 3D, comme s’il y était. La particularité de cette machine était qu’elle pouvait stimuler différents sens comme la vue, le toucher, l’ouïe et l’odorat. Cette machine est restée au stade de prototype car sa production aurait coûté trop cher.


En 1963, Ivan Sutherland, ingénieur en informatique, écrit un programme informatique nommé Sketchpad. Ce logiciel est considéré comme l’ancêtre des logiciels de conception assistée par ordinateur (CAO), aujourd’hui utilisés par tous ceux qui font de la 3D. Pour cette invention, Ivan Sutherland reçoit en 1988 le prix Turing, qui récompense une personne ayant contribué à la communauté informatique avec une importance technique majeure et durable.

De 1965 à 1968, Ivan Sutherland, et son étudiant Bob Sproull, développent un nouveau moyen de visualiser des images de synthèse : l’Ultimate Display, ou Épée de Damoclès. L’Épée de Damoclès était un casque avec détecteur de mouvement intégré. Il porte ce nom en raison du bras mécanique nécessaire pour traquer les mouvements de la tête.


Années 80-90
En 1984, le CEA et l’IRISA créent le premier système de réalité virtuelle à retour d’efforts dans le cadre du grand programme national de recherche en automatique, ARA. Il s’agissait d’utiliser en temps réel des modèles 3D de l’environnement d’un robot téléopéré. Une première dans le domaine de la recherche.

Parallèlement, Jaron Lanier, chercheur en informatique, et Thomas Zimmerman, l’inventeur du gant sensitif, fondent VPL Research en 1985, une société pionnière dans le domaine de réalité virtuelle. Ensemble, ils inventent plusieurs moyens d’explorer la réalité virtuelle dont le « Dataglove » en 1987, ou « gant de données ». Ce gant comporte des capteurs et permet à un utilisateur de saisir un objet virtuel et de le manipuler, en numérisant en temps réel les mouvements de la main. La société va également développer les premiers casques de réalité virtuelle de la NASA, le casque VIEW. Ce dernier permettait d’immerger les astronautes dans diverses situations spatiales et de les entraîner. Ce casque était accompagné d'une combinaison qui permettait un suivi complet des mouvements du corps.

L’expression « réalité virtuelle » fut proposée et utilisée pour la première fois en 1989, par Jaron Lanier, fondateur de la société VPL Research.


En 1995, le CEA propose au monde industriel le premier système de simulation de poste de travail robotisé à retour d’efforts en bénéficiant des avancées dans le domaine des calculateurs qui ont permis de représenter des environnements complexes en 3D et surtout en temps réel.

Ces avancées majeures ont permis de donner naissance à une véritable école française de réalité virtuelle industrielle qui, à partir du début des années 2000, a commencé à pénétrer les bureaux d’étude de tous les grands groupes industriels dans les secteurs de l’aéronautique et de l’automobile.

Aujourd'hui
Les progrès réalisés dans le domaine informatique améliorent toujours plus le réalisme et les interactions en temps réel de la réalité virtuelle. Parmi les innovations de rupture, la démocratisation des casques VR permet de réaliser des expériences immersives à moindre coût. En effet, il y a encore quelques années, le cave ou la salle immersive était l’unique moyen de réaliser de telles expériences. Mais ce moyen reste onéreux et lourd à mettre en œuvre. La réalité virtuelle est dans une phase de « révolution » et nombre de promesses sont encore à explorer.

LES OBJECTIFS DE LA RÉALITÉ VIRTUELLE
Pour répondre aux besoins et aux envies des industriels et du grand public, les moyens se déploient sans cesse pour rendre la réalité virtuelle encore plus performante et permettre davantage d’interactions.
En améliorant les technologies de réalité virtuelle, les chercheurs poursuivent plusieurs objectifs :



*         Voir et manipuler des objets imaginaires : les chercheurs et les utilisateurs peuvent laisser libre cours à leur créativité, et ainsi trouver des réponses à des questionnements qui étaient impossibles à résoudre sans réalité virtuelle.



*         Vérifier et valider les concepts, les process, les produits avant la réalisation d’un prototype. Tester une maquette numérique avant de passer à une maquette réelle permet d’économiser du temps et de l’argent.



*         Former à de nombreux métiers nécessite d’acquérir le « geste parfait » et les interfaces haptiques (bras articulés, manettes, gants, certains casques VR) participent à cet entraînement, par exemple pour des opérations de peinture, de pilotage d’avion, de chirurgie… voire d’apprentissage en auto-école.  La réalité virtuelle peut également aider à soigner les phobies : l’immersion à l’aide des casques de réalité virtuelle permet à des personnes atteintes de phobies, comme la peur de l’avion ou la peur des araignées, de dépasser leur peur. Ils sont aussi de précieux outils pour apprendre à réagir aux situations de crise et à divers aléas.



*         Étudier et diagnostiquer les postes de travail, établir leur cotation ergonomique, c’est-à-dire évaluer les postures des membres, du cou, et du tronc selon une grille d’observation. Les chercheurs peuvent, grâce à la réalité virtuelle, évaluer la pénibilité des tâches, repérer les postures pouvant entraîner des troubles musculo-squelettiques, et ainsi les prévenir. La réalité virtuelle permet aussi de déterminer si un geste humain est possible, compte tenu des contraintes de l’environnement où il sera réalisé et de mettre en place une éventuelle assistance cobotique.

*         Simuler le réel pour assurer la sécurité d’une activité.

LES DOMAINES D'APPLICATION DE LA RÉALITÉ VIRTUELLE

L'usine du futur
Le recours croissant au numérique est devenu incontournable pour optimiser l’outil de production, dès sa conception, mais aussi simuler la réalisation de tâches ou superviser le fonctionnement des robots. La réalité virtuelle et la réalité augmentée contribuent ainsi de façon croissante à la formation industrielle et à l’apprentissage de certaines techniques de maintenance.

Parmi les industries intéressées par les technologies de réalité virtuelle, de grands constructeurs automobiles et, pour la partie grand public, des concepteurs de salles d'arcade et de jeux vidéo avec lesquels sont menés des projets collaboratifs de serious game. Certaines sociétés spécialisées dans les outils d'évaluation HSE (Hygiène – Sécurité - Environnement) ont montré comment la cotation ergonomique pouvait contribuer à modifier le design d'un poste de travail.

Démantèlement nucléaire
La réalité virtuelle est utilisée par les acteurs de la filière nucléaire pour notamment intervenir en milieu « hostile ». Dans le cadre de projets de démantèlement nucléaire, les équipes peuvent utiliser des solutions logicielles (salle de réalité virtuelle 3D immersive) et technologiques (équipements téléopérés sur une maquette réelle à l’échelle 1) pour les aider à concevoir, tester et optimiser les scénarios de démantèlement. Concrètement, la salle immersive reconstitue en trois dimensions les chantiers de démantèlement à réaliser grâce à un robot, ainsi qu’une reproduction « image » du robot lui-même.
Un poste complet de téléopération (bras haptique à retour d’effort, baies de contrôle-commande...) similaire à ceux utilisés sur le terrain, permet aux téléopérateurs de se former ainsi que de tester les capacités du robot. Au-delà de la formation des opérateurs, la simulation et la modélisation sont très utiles pour préparer les interventions et définir les dispositifs de radioprotection nécessaires.

Recherche fondamentale
La réalité virtuelle intéresse aussi la recherche fondamentale. Par exemple, dans le domaine de la santé ou de l'archéologie, l'utilisation de la réalité virtuelle procure de nouvelles capacités de visualisation et d'interaction pour modéliser de nouvelles molécules ou se mettre 'à hauteur' de nos ancêtres dans leur environnement reconstitué.

 

 DOCUMENT     cea         LIEN

 
 
 
 

Les séismes

 


 

 

 

 

 

Les séismes
Publié le 26 avril 2017

La Terre est en perpétuel mouvement : elle bouge, parfois de manière brève et violente. Les séismes constituent des événements imprévisibles dont la prédiction reste inaccessible, y compris pour les plus grands experts. En France, comme dans la majorité des pays où le risque sismique existe, plusieurs organismes surveillent les mouvements de la Terre pour garantir au mieux la sécurité des populations en cas d’événements sismiques importants.
QU’EST-CE QU’UN SÉISME ?

L'écorce terrestre n'est pas homogène. Elle est constituée d’une douzaine de plaques épaisses de 10 à 80 kilomètres. Ces plaques se déplacent de quelques centimètres en moyenne par an en se frottant les unes contre les autres sous l’effet du mouvement de convection. Le mouvement de convection dans le manteau peut être comparé à un tapis roulant géant fait de roches plus ou moins visqueuses, qui peuvent entraîner les plaques en surface.


C'est ce mouvement qui entraîne le phénomène appelé « tectonique des plaques », qui fait dériver les continents. Ces déplacements provoquent la déformation de la croûte terrestre et l’accumulation de tensions dans la roche. Le séisme correspond à la libération brutale de ces tensions en un déplacement brusque du terrain le long d’une faille.

Lorsqu’il a lieu, un séisme libère de l’énergie en profondeur depuis son hypocentre qui correspond au centre de rupture le long de la faille. Il ne faut pas le confondre avec l’épicentre qui est l’endroit à la surface qui se trouve juste au-dessus de l’hypocentre.

Lors d'un tremblement de terre, une partie de l'énergie est libérée depuis l'hypocentre sous forme d'ondes sismiques. Il en existe plusieurs types: les ondes de compression (les plus rapides, qui font bouger le sol de haut en bas quand elles viennent des profondeurs de la Terre), les ondes de cisaillement (qui le font bouger latéralement) et les ondes de surface qui se propagent à la surface de la Terre et sont les plus destructrices. Suivant le type de sol rencontré, la vitesse et la direction des ondes peuvent varier.

COMMENT MESURE-T-ON UN SÉISME ?
Pour mesurer un tremblement de terre, les sismologues utilisent des sismomètres. Ces outils vont servir à enregistrer la durée et l’amplitude des ondes. Lorsque les données de plusieurs sismomètres sont croisées, il est possible de connaître la position et la puissance exacte du séisme.


Pour caractériser un séisme, deux échelles existent : la magnitude et l’intensité. La magnitude caractérise l’énergie libérée par le séisme, sur une échelle ouverte s’étendant jusqu’à 9 (et plus) pour les plus grands séismes. Plus la magnitude est élevée, plus l’énergie libérée par le séisme est importante. Dans le monde, la plus forte magnitude observée, à ce jour, est de 9,5 pour le séisme du Chili en 1960.

L’intensité va, quant-à-elle, mesurer, sur une échelle fermée allant de 0 à 12, l’importance des effets ressentis et des dommages provoqués par un séisme.

Historique

A ce jour, les cinq séismes les plus puissants de l’histoire contemporaine sont :
*         Le séisme de Valvidia, au Chili, le 22 mai 1960, de magnitude 9,5 ;
*         Le séisme de Sumatra, en Indonésie, le 26 décembre 2004, de magnitude 9,2 ;
*         Le séisme d’Anchorage, en Alaska, le 27 mars 1964, de magnitude 9,2 ;
*         Le séisme de la côte Pacifique de Tohoku, au Japon, le 11 mars 2011, de magnitude 9,0 ;
*         Le séisme de Kamtchatka, en Russie, le 4 novembre 1952, de magnitude 9,0.

    

Et les tsunamis ?
Un tsunami est généré par un séisme sous-marin ou côtier de faible profondeur (moins de 50 km de profondeur) et d’une magnitude d’au moins 6 sur l’échelle de Richter. L’amplitude du tsunami dépend de la magnitude du séisme. On considère alors qu’à partir d’une magnitude 8, un séisme peut générer un tsunami potentiellement dévastateur au niveau d’un océan.


DÉTECTER LES SÉISMES
DANS LE MONDE

Il n’est pas possible de prédire les séismes, pas plus que de les empêcher de se produire ni de contrôler leur puissance. La seule façon de diminuer le risque est de réduire la vulnérabilité des infrastructures humaines susceptibles d’être soumises à des séismes.

De très nombreuses stations sismiques couvrent par ailleurs le globe. Elles font partie de réseaux de dimension planétaire  (Iris, Geoscope…) ou de dimension régionale (tels que le réseau RESIF pour la France). Leurs données sont, en temps réel et de façon sécurisée (Internet, satellite, téléphone), mises à la disposition des organismes en charge d’émettre rapidement des alertes en cas de séisme (NEIC aux Etats-Unis, CSEM  en Europe…). Ce partage des données sismiques permet aussi à ces derniers de publier des catalogues de sismicité,  grâce auxquels on peut quantifier l’aléa sismique.

En France c’est le Département Analyse, Surveillance, Environnement (DASE) du CEA qui assure une mission de surveillance des séismes pour la France métropolitaine et qui alerte les autorités en cas de séisme susceptible d’être ressenti et en cas de tsunami consécutif à un fort séisme en mer, en Méditerranée, en Atlantique Nord-Est et dans le Pacifique.

Cette mission d’alerte aux tsunamis (24h/24) s’appuie sur des réseaux géophysiques robustes, garantissant un accès temps-réel et continu aux mesures, des capacités informatiques de traitement automatique des enregistrements et une expertise pour l’alerte. Elle met en œuvre du personnel dédié, travaillant 24h/24 et 7 jours sur 7.


PEUT-IL Y AVOIR DES SÉISMES EN FRANCE ?
En France, les forts séismes sont peu nombreux et ne se reproduisent que rarement au même endroit à l'échelle de la mémoire humaine. On ne peut donc avoir une image exhaustive de la sismicité potentielle d'une région à l'aide des seules données de sismicité instrumentale et historique. La France est un pays où l'aléa sismique est globalement plus faible que dans des pays comme le Japon ou, en Europe, la Grèce. Cependant, certaines régions sont plus sensibles que d'autres en métropole (Alpes, Provence, Pyrénées, Alsace). Outre-mer, les Antilles ont déjà connu et connaîtront encore des tremblements de terre dévastateurs.
 

COMMENT PEUT-ON SE PROTÉGER DES SÉISMES ?
En 2005, le gouvernement a lancé, sur la période 2005-2010, un programme national de prévention du risque sismique (PNPRS), dit « Plan Séisme ». Objectif : réduire la vulnérabilité de la France face au risque sismique, en favorisant une prise de conscience des citoyens, des constructeurs et des pouvoirs publics, mais aussi en mettant en place des dispositifs efficaces et en améliorant les savoir-faire et compétences existants.

La construction parasismique
Des règles existent depuis le début des années 1980 et ont été renforcées à la fin des années 1990. La signature, le 22 octobre 2010, des décrets relatifs à la prévention du risque sismique et à la définition du nouveau zonage sismique de la France marque une nouvelle étape avec un zonage plus précis et plus étendu et des règles renforcées.

Ainsi, depuis le 1er mai 2011, toutes les communes françaises relèvent d'une zone de sismicité (cinq zones en tout, de « très faible » à « forte »). Les normes s'appliquant aux maisons individuelles dépendent ainsi de l'appartenance à telle ou telle zone de sismicité. En revanche, les installations dites « sensibles » font l'objet de normes unifiées sur tout le territoire français, indépendamment de la zone de sismicité dans laquelle se situent ces installations.

 
QUELS SONT LES PROCHAINS DÉFIS DE LA SISMOLOGIE ?
En croisant les données du réseau mondial de détecteurs sismiques les chercheurs en sismologie cherchent à automatiser et extraire plus facilement des données d'analyse pertinentes à l'aide de supercalculateurs. En plus de ce travail, ils cherchent également à mieux comprendre le bruit environnant du manteau terrestre pour mieux connaître la structure interne de la Terre.

Des recherches sont également menées sur les séismes dits « lents » qui sont des frottements des plaques tectoniques (dans les zones de subduction) qui se traduisent par des séismes légers et progressifs sur plusieurs semaines. La compréhension de ce phénomène pourrait expliquer l'apparition de séismes plus violents voire même les prédire.

 

  DOCUMENT     cea         LIEN

 
 
 
 

Qu’est-ce que l'énergie ?

 

 

 

 

 

 

 

Qu’est-ce que l'énergie ?


Concept abstrait, l'énergie vient du mot grec "energia" qui signifie "force en action".

Publié le 1 juillet 2012

L'ÉNERGIE PLUS OU MOINS ÉLEVÉE
L’existence de l’énergie peut apparaître sous des masques divers et on peut ainsi sentir de quelle manière elle dépend de la situation. Une voiture possède une énergie d’autant plus élevée qu’elle roule plus vite ; cette énergie est inférieure à celle d’un camion allant à la même vitesse. Un ressort, lorsqu’il est comprimé, a une énergie plus grande que lorsqu’il est détendu. L’énergie d’une pile électrique avant sa mise en service est plus grande que lorsqu’elle est déchargée. L’énergie d’une casserole d’eau augmente lorsqu’on la chauffe.
L’énergie se présente ainsi sous des formes très diverses. Pour chacune d’entre elles, les comparaisons effectuées montrent que l’énergie d’un système physique dépend de l’état dans lequel il se trouve. Dans les exemples ci-dessus, cet état est caractérisé par la vitesse et la masse du véhicule, la déformation du ressort, la charge. Nous allons le voir, les divers types d’énergie peuvent, au moins partiellement, prendre bien d’autres formes. Ces transformations de l’énergie sont utilisées dans la vie courante, mais chacune d’entre elles génère des pertes.

Les diverses sources d'énergie

L'ÉNERGIE SE TRANSFORME
L’énergie peut se transmettre d’un système à un autre : sous forme de chaleur, elle passe d’un radiateur à l’air d’une pièce. Elle peut aussi se transformer en changeant de nature. Dans un jouet mécanique, le ressort se détend en provoquant un mouvement. L’énergie associée au mouvement d’un vélo se transforme, lorsqu’on freine, en chaleur communiquée aux patins des freins et à la jante des roues. L’énergie emmagasinée dans une pile de lampe de poche se change, lorsqu’on ferme le circuit, en énergie électrique ; celle-ci se convertit à son tour dans l’ampoule en énergie lumineuse et calorifique. Dans une centrale thermoélectrique, l’énergie stockée dans le carburant (énergie chimique dans le charbon et le pétrole, ou énergie nucléaire dans l’uranium) est transformée (par combustion ou par réaction nucléaire) en chaleur ; puis une partie de cette chaleur est récupérée dans les turbines sous forme mécanique ; enfin, cette énergie mécanique est convertie en énergie électrique dans les alternateurs.
C’est à travers de telles transformations ou de tels transferts que l’énergie se manifeste à nous.

L'ÉNERGIE SE CONSERVE
La caractéristique la plus remarquable de l’énergie est qu’elle se conserve toujours. Lorsqu’elle est transférée d’un système à un autre, ou lorsqu’elle change de nature, il n’y a jamais ni création ni destruction d’énergie. Si un objet a perdu de l’énergie, la même quantité d’énergie a obligatoirement été gagnée par un autre objet en communication avec le premier. De même, lorsque l’énergie change de forme, le bilan est toujours exactement équilibré.

L’énergie se conserve : rien ne se perd, rien ne se crée. C’est le premier principe de la thermodynamique.

C’est donc par abus de langage que les journaux, les économistes ou les hommes politiques parlent de “production d’énergie”, ou de “pertes d’énergie”, puisque l’énergie ne peut être ni créée ni perdue. En réalité, dans une centrale thermoélectrique, on ne “produit” pas d’énergie, mais on transforme de l’énergie chimique ou nucléaire en énergie électrique et calorifique. Le bilan global de cette conversion est caractérisé par un rendement. Celui d’une centrale représente 33 %, ce qui signifie que pour envoyer sur le réseau 33 unités d’énergie électrique, il a fallu consommer 100 unités d’énergie nucléaire, tout en dégageant 67 unités de chaleur ; cette chaleur, évacuée dans l’environnement, par exemple par la vapeur d’eau sortant des tours de refroidissement, est donc, en général, perdue pour nous. Certaines centrales en récupèrent toutefois une partie pour chauffer des habitations ou des serres.
Nous verrons plus loin que, si l’énergie se conserve toujours, ses diverses formes ne sont pas équivalentes, car toutes les transformations concevables ne sont pas réalisables.

L'ÉNERGIE SE MESURE
C’est la propriété de conservation de l’énergie qui nous permet de mesurer, à l’aide d’une seule et même unité, les diverses formes de l’énergie. L’énergie, dite cinétique, associée au mouvement d’un objet de masse “m” et de vitesse “v” vaut E = 1/2 mv2 ; lorsque la masse est exprimée en kilogrammes et la vitesse en mètres par seconde, cette formule donne l’énergie en joules (J), unité légale dans le système international.
À l’époque où l’on n’avait pas encore reconnu que la chaleur était une forme de l’énergie, l’étude des échanges thermiques avait conduit à introduire une unité de chaleur, la calorie, définie comme la quantité de chaleur à fournir à 1 gramme d’eau pour élever sa température de 1 degré Celsius. L’expérience a montré que les transformations d’énergie mécanique en chaleur, ainsi que les transformations inverses, se faisaient toujours avec le même rapport, à savoir 1 calorie pour 4,18 joules. Il y a donc équivalence entre ces deux formes d’énergie (mécanique et chaleur). Ceci a permis d’abandonner la calorie et de mesurer la chaleur et toutes les autres formes d’énergie, en joules.

L'Américain consomme en moyenne environ deux fois plus d’électricité que le Français, lequel consomme quatorze fois plus d’électricité que l’Africain.

LA PUISSANCE
Les échanges d’énergie sont caractérisés, non seulement par la quantité d’énergie transférée ou transformée, mais aussi par la durée du processus. La notion de puissance est ainsi définie comme une quantité d’énergie échangée par unité de temps. L’unité de puissance, le watt, est donc le joule par seconde. Un radiateur électrique de 1 500 W consomme durant chaque seconde une énergie électrique de 1 500 J, et par suite, durant chaque heure (3 600 secondes), une énergie électrique de 3 600 x 1 500 J = 5 400 000 J, transformée en énergie calorifique.
Cet exemple montre que le joule est une unité d’énergie trop petite pour nos usages courants. On emploie souvent en pratique le kilowattheure (kWh), quantité d’énergie mise en jeu par un appareil d’une puissance de 1 000 W pendant un délai d’une heure. Ainsi, 1 kWh vaut 3 600 x 1 000 J = 3 600 000 J. Le radiateur électrique considéré ci-dessus consomme, en une heure de fonctionnement, 1,5 kWh et rayonne évidemment pendant la même durée une énergie calorifique de 1,5 kWh.
La consommation annuelle moyenne d’électricité par habitant en France est de plus de 7 000 kWh, le double aux États-Unis, soit 14 000 kWh, et en Afrique un peu plus de 500 kWh. Les trois quarts de l’électricité produite en France sont d’origine nucléaire, le dernier quart se partageant entre hydroélectrique et thermique (charbon, pétrole). Mais cette électricité représente elle-même moins de la moitié de notre consommation totale. Le reste fait appel à une utilisation directe de pétrole (essence, fioul), de gaz et de charbon ; le tiers de nos besoins concerne, en effet, le chauffage des locaux, et le quart concerne les transports.

 

 DOCUMENT     cea         LIEN

 
 
 
 

Le Cern annonce avoir obtenu les signes d'une désintégration d'un boson de Higgs en deux muons

 

 

 

 

 

 

 

Le Cern annonce avoir obtenu les signes d'une désintégration d'un boson de Higgs en deux muons

Par Marine Benoit le 05.08.2020 à 19h00


Le Cern, par le biais de deux expériences, a annoncé de nouveaux résultats jamais obtenus jusqu'alors au Grand collisionneur de hadrons. Ces derniers mettent en évidence la désintégration du boson de Higgs en deux muons, un phénomène extrêmement rare.

La désintégration d'un boson de Higgs en muons a une chance de 1 sur 5.000 de se produire.

CERN/ATLAS-CMS
C’est une première au Grand collisionneur de hadrons (LHC, pour Large Hadron Collider) du Cern, plus grand et plus puissant accélérateur de particules au monde. Les expériences ATLAS et CMS — deux des cinq expériences que comprend le LHC, ont obtenu des indices inédits d’une désintégration du boson de Higgs en deux muons. Ces résultats ont été officiellement annoncés lundi 3 août 2020 lors de la 40e Conférence internationale de la physique des hautes énergies, qui se tient actuellement (et virtuellement) à Prague jusqu’au 6 août.

Les muons sont des particules élémentaires issues des rayons cosmiques les plus couramment observés sur Terre. Particulièrement abondants, on estime que toutes les secondes, plus de 100 muons nous traversent. Ils sont par exemple utilisés par les physiciens pour remplacer artificiellement les électrons qui créent les liaisons chimiques entre les atomes et assurent la cohésion de la matière. Les muons sont en réalité en tous points semblables aux électrons, à la différence qu’ils sont 200 fois plus lourds que ces derniers. Cet écart de masse les place dans la catégorie des particules élémentaires dites de deuxième génération (aux côtés des quarks charm et strange par exemple), quand les électrons, à la masse négligeable, appartiennent à la première génération — celle où se classent toutes les particules de la matière que l’on connaît. Il existe aussi des particules de troisième génération, à l’instar des leptons tau ou des quarks top, plus lourds encore que les particules de deuxième génération.

Interaction proportionnelle à la masse
Cette histoire de générations, et donc de masse, est cruciale pour comprendre toute l’importance de l’annonce du Cern. C’est en effet la toute première fois que l’on récolte des indices laissant à penser qu’un boson de Higgs a atteint un état final fait de deux particules élémentaires de deuxième génération. Jusqu’à présent, seules des désintégrations en des particules de troisième génération, beaucoup plus lourdes, avaient été observées (en deux quarks top ou bottom, en deux leptons tau…). "La désintégration d’un boson de Higgs donnait jusqu’ici toujours naissance à des particules de troisième génération", explique à Sciences et Avenir Stephane Willocq, physicien sur l’expérience Atlas et qui en deviendra le coordinateur en octobre prochain. "La désintégration en deux muons est un phénomène physique rare puisque selon nos prédictions, un seul boson de Higgs sur 5.000 environ suit ce processus."

RAPPEL. Qu’est-ce que le boson de Higgs ? Surnommée la "particule de Dieu", le boson de Higgs est considéré par les physiciens comme la clef de voûte de la structure fondamentale de la matière. C'est lui qui, quelques fractions de secondes après le Big Bang, a donné leur masse à toutes les autres particules de l'Univers. Retrouvez notre question de la semaine sur le sujet pour en savoir plus.
De tels indices vont donc dans le sens des prédictions du modèle standard de la physique : le boson de Higgs interagirait bien en fonction de la masse de la particules. "En partant de ce principe, nous nous attendions à une désintégration beaucoup plus rare en muons, ce qui semble être précisément le cas", poursuit Stephane Willocq. Il pourrait donc s’agir d’une importante confirmation de la nature de l’interaction entre le boson de Higgs et les particules élémentaires. Une interaction proportionnelle à la masse.

Une première étape
Il est toutefois important de préciser ici qu’il ne s’agit pas encore d’une "observation" à proprement parler, mais bien de la récolte de données statistiques allant dans le sens d’une désintégration d’un boson de Higgs en deux muons. Il faudra à ATLAS et CMS atteindre la sensibilité de 5 sigmas pour établir définitivement cette découverte. Pour le moment, la signification statistique de CMS s’élève à 3 sigmas. Autrement dit, les chances qu’il ne s’agisse que d’une simple fluctuation statistique et non de la désintégration du boson sont inférieures à 1/700. ATLAS, lui, a obtenu un niveau de 2 sigmas, ce qui correspond à une probabilité de 1/40. "Bien sûr, en combinant ces deux résultats, la probabilité de la fluctuation statistique est encore basse. Mais il reste encore une toute petite place à l’erreur, et nous devons atteindre forcément l’indice de confiance pour l’écarter", termine le scientifique.
Roberto Salerno, physicien CNRS à l’École polytechnique en charge de la coordination des manipulations sur CMS, fait une analogie pour mieux comprendre l’importance d’accumuler plus de données : "Si seulement une personne sur 5.000 porte des chaussures rouges, il faudra, pour pouvoir en observer 10, disposer d’un groupe d’au moins 50.000 personnes. Prouver que ce n’est rien d’autre que le boson de Higgs se désintégrant en deux muons, tout en le distinguant du bruit du fond, est un travail fastidieux de sélection des bons événements. Pour y parvenir, il faut  générer beaucoup, beaucoup de collisions."
Lors du fameux "Run III", prochaine phase d’exploitation du LHC qui devrait débuter en 2022, les chercheurs seront en mesure de doubler ou tripler cette quantité de données. Les Runs 4 et 5 débuteront, eux, vers 2027, et permettront de générer 10 fois plus de données. "Nous allons commencer à accumuler des données en 2022, et ce pendant trois années qui, on l’espère, seront suffisantes pour établir l’observation à un niveau statistique irréfutable", précise Roberto Salerno.

L'espoir d'une faille dans le modèle standard
Aujourd'hui, si la matière a une masse, c'est bien parce que les particules qui la composent ont interagi dans un passé lointain avec le boson de Higgs. Ce passé lointain correspond au moment où l'Univers était âgé de 10-10 secondes, lorsque la température frôlait les 1015 degrés. Avant cet instant précis, les particules n'avaient pas de masse. L'une des grandes interrogations de ce siècle est donc la suivante : pourquoi certaines particules ont plus interagi que d'autres avec le boson ? Pourquoi diable ont-elles acquis des masses différentes ? "C'est un problème vraiment très profond que l'on aimerait résoudre. Nous espérons trouver un jour la réponse au moyen d'autres théories au-delà du modèle standard. C’est justement l'une des raisons pour lesquelles nous faisons ce type d’expérience : nous souhaitons plus que tout trouver des failles dans le modèle standard", confie Stephane Willocq.

Il n'est pas non plus exclu qu'une connexion entre le boson de Higgs et la fameuse matière noire existe. "Nous avons l’espoir que le boson soit une nouvelle particule tout à fait spéciale, sans équivalent, au rôle unique. Nous espérons apprendre encore beaucoup de cette fascinante particule sans spin."

 

   DOCUMENT   sciences et avenir.fr    LIEN 

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 ] - Suivante
SARL ORION, Création sites internet Martigues, Bouches du Rhone, Provence, Hébergement, référencement, maintenance. 0ri0n
Site réalisé par ORION, création et gestion sites internet.


Google
Accueil - Initiation musicale - Instruments - Solf�ège - Harmonie - Instruments - Musiques Traditionnelles - Pratique d'un instrument - Nous contacter - Liens - Mentions légales / Confidentialite

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon