robot T-HR3 Sciences & Environnement Informatique

Un robot avec le sens du toucher

Un robot humanoïde disposant du sens du toucher vient de naître. Il se nomme T-HR3, fait 1 mètre 54 de haut pour 75 kg. Conçu par Toyota, il peut reproduire les mouvements des humains et sentir ce qu’il touche.

Pourquoi c’est important ?

On pourrait se demander ce que cela change, finalement, qu’il puisse ressentir les objets qu’il manipule de la même manière qu’un humain. Premièrement, c’est important car cela reste une prouesse technologique. Ce sens du toucher était jusqu’ici uniquement accessible au monde du vivant.

Mais au delà de la prouesse, c’est une avancée énorme car elle permet au robot de saisir les objets avec douceur. Ainsi ce robot peut tenir et serrer un ballon avec délicatesse sans que celui-ci éclate. De plus, la volonté du constructeur est d’utiliser ce robot en tant qu’assistant à la personne, notamment aux personnes âgés. Le T-HR3 est donc capable de vous prendre dans les bras sans vous briser les os (plutôt une bonne nouvelle).

Une telle innovation est possible grâce à des capteurs ultra sensibles placés au niveau des mains du robot. Celui-ci est piloté à distance et reproduit les mouvements de son opérateur en temps réel.

Quelle est la prochaine étape ?

Le sens du toucher du robot est certes avancé, mais il est possible d’aller plus loin. Énormément de projets sont en cours et proposent des axes d’études bien différents. De nouvelles limites sont donc en passe d’être repoussées.

Par exemple, l’Université technologique de Munich compte permettre à leur robot de ressentir la chaleur, un souffle, ou même une vibration. Pour accomplir cette nouvelle prouesse technologique, des circuits hexagonaux se comportant un peu comme une peau électronique sont ajoutés sur le robot. Ces circuits sont bardés de capteurs ultra sensibles, à la foi infrarouges, de température, de pression mais également d’un accéléromètre.

Pour citer un autre exemple, l’université de Los Angeles, en partenariat avec celle de Washington à Seattle, a également un projet de création du sens du toucher. Celui-ci a la particularité de dépendre grandement sur les nanotechnologies. Il a donc énormément fait progresser ce champ de la technologie. 

Rechercher à reproduire un simple sens du monde du vivant provoque de belles avancées dans de nombreux secteurs. La science avance à grand pas, et il semblerait que nous touchions déjà le futur du bout des doigts …

Sources :

Industrie & Technologies

L’ambassade de France aux Etats-Unis

Humainoïde

L’usine nouvelle

 

 

ARMES Sciences & Environnement Actualités

Les lois sur les armes intimement liées à la…

Les lois sur le port des armes sont au cœur du débat publique, notamment à cause des multiples tueries aux Etats-Unis. La législation très restreinte des armes aux Etats-Unis a par exemple permis à la tragique tuerie de l’école à Parkland d’avoir lieu. La Floride à été bouleversée par ce massacre et cela à relancé le débat sur le contrôle et la réglementation des armes.

La législation a besoin de la recherche pour évoluer dans le bon sens

Le problème principal s’opposant à une législation est que le droit de posséder une arme est inscrit dans la constitutions des USA (le fameux second amendement). De plus, il n’y a que peu d’études scientifiques pouvant aider à trouver quelle réglementation serait la plus efficace.

Cependant, des analyses des différentes lois sur la réglementation des armes aux Etats-Unis ont été effectuées. Celles-ci ont conclu que le meilleur moyen de gérer les armes est de stimuler l’investigation scientifique à ce sujet. L’intuition se révèle en effet plutôt mauvaise pour obtenir des lois efficaces. On pourrait penser qu’interdire l’accès aux armes uniquement aux personnes souffrant de maladies psychologiques (des personnes à risque donc) serait une bonne idée,  pourtant, une étude scientifique a prouvé qu’il n’existe aucune corrélation entre cette loi et une baisse du risque de tuerie.

On peut regretter que l’étude n’ait pas cherché à aller plus loin, mais il s’agit déjà d’un début de preuve : l’intuition ne suffit pas à faire une bonne réglementation. Il faut y rajouter la recherche.

Un objectif  semé d’obstacle

En 2013, à la suite de la fusillade de l’école élémentaire Sandy Hook, Barack Obama lance une série d’ordres exécutifs ayant pour but de stimuler la recherche autour de la législation des armes. Cependant, le congrès s’opposant à la plupart des propositions faites autour de cette législation, il a été décidé en 2017, sous l’administration Trump, d’arrêter ce programme et de financer d’autres recherches plus « prioritaires ».

Les évolutions autour de ce débat se font lentement mais les mentalités changent peu à peu. Des financements pour d’autres recherches sont annoncés, notamment pour une étude voulant estimer l’impact sociétal de l’augmentation de l’âge minimum pour acheter une arme (en le passant à 21 ans).

La science est indispensable si l’on veut éviter d’inventer des lois basées sur notre propre intuition. On utilise depuis toujours la science comme moyen d’améliorer notre conception sociétal et politique. Celle-ci nous aide à régler les problèmes graves de la société. 

Il serait peut-être temps de considérer le débat sur les armes à feu comme un vrai problème de société. La science, comme souvent, est le moyen le plus sûr de régler nos problèmes.

Sources :

Science

elon musk technology robot Sciences & Environnement Informatique

Elon Musk et les intelligences artificielles

Conquête spatiale, véhicules électriques et autonomes ou Hyperloop, pas un seul domaine technologique ne semble échapper à l’influence d’Elon Musk, et celui des intelligences artificielles se déroge pas à la règle. Depuis 2015, celui-ci cofonde OpenAI, une association de recherche open-source à but non lucratif sur les intelligences artificielles.

Etrangement, il n’a de cesse de prévenir la communauté scientifique sur les dangers potentiels des intelligences artificielles, allant même jusqu’à déclarer sur son compte Twitter que la course à l’IA pourrait bien déclencher une troisième guerre mondiale.

Le 4 septembre 2017, le PDG de Tesla, SpaceX ou encore The Boring Company a tweeté :

« La Chine, la Russie et bientôt tous les pays avancés en informatique. La compétition entre les Etats pour avoir la supériorité dans le domaine des intelligences artificielle conduira probablement à une troisième guerre mondiale à mon avis »

 

Un débat qui fait rage

La question de la dangerosité des intelligences artificielles, ou IA, n’est pas nouvelle. Depuis les prédictions d’Alan Turing en 1950, nombreux sont ceux qui redoutent la capacité d’une intelligence supérieure à nuire aux intérêts de l’espèce humaine, allant même jusqu’à craindre qu’elles se retournent contre nous.

En effet, que ce soit grâce à Terminator, The Matrix, I Robot et bien d’autres films et livres (plus récemment, Origine de Dan Brown), tout le monde a déjà entendu parler de ce débat qui peut se résumer en une question simple : devons nous faire confiance aux IA ?

Avant toute chose, cherchons à savoir ce qu’il en est aujourd’hui.

Là où l’informatique à avancé à pas de géants en un demi-siècle, le débat n’a quant à lui pas trouvé de réponse, divisant toujours plus autour de la problématique, de même pour les arguments.

D’un côté les progressistes, qui affirment que les IA permettront d’améliorer considérablement les conditions de vie de nombre de personnes, de faire avancer la médecine, de supprimer les tâches pénibles du quotidien, et même d’apporter une solution durable à la plupart des problèmes qui divisent notre société.

De l’autre, ceux qui pensent que celles-ci vont détruire des emplois, aggraver les inégalités sociales et les conflits d’intérêts voire se retourner contre nous.

Le point de vue d’Elon Musk

Revenons-en aux propos du fondateur de SpaceX sur le sujet.

Selon lui, les conflits que pourraient entraîner une course à l’IA pourraient déclencher un conflit majeur, ici une troisième guerre mondiale.

Loin de mâcher ses mots, celui-ci s’appuie sur des faits récents, à savoir la déclaration du président Russe Vladimir Poutine affirmant que la nation qui dominerait le domaine des intelligences artificielle dominerait de ce fait les autres nations et « dirigerait le Monde ».

Il est clair qu’une course à l’IA serait comme une sorte de course à l’armement dans sa version moderne, rappelant les durs moments de la guerre froide opposant URSS et Etats-Unis qui a bien failli emmener le Monde vers une troisième guerre mondiale.

Cependant, si cette course à l’intelligence artificielle devait aboutir sur une « Guerre Froide » du 21ème siècle, celle-ci serait d’une ampleur dépassant très largement celle qui jadis opposa les deux principales puissances mondiales.

En effet, contrairement à de l’armement conventionnel, qui nécessite des moyens financiers et humains considérables que seules de riches nations peuvent acquérir, créer une intelligence artificielle pourrait très prochainement être à la portée de n’importe qui, tant l’informatique évolue rapidement.

Les participants à cette course, qu’ils soient états, entreprises, ou même terroristes seraient si nombreux qu’un conflit semble inévitable, d’une forme ou d’une autre.

Un problème pas si nouveau

La forme que pourrait prendre un tel conflit semble inédite et disproportionnée, et extrêmement difficile à prévoir.

Pourtant, le problème est-il si nouveau que cela ?

S’il y a bien une chose que l’on peut retenir de notre passé, c’est que dès lors qu’il s’agit de trouver un prétexte pour générer un conflit, les idées fusent.

Que ce soient les guerres de territoire, de religion, d’idéologie ou simplement d’influence, tous les conflits majeurs peuvent se résumer très simplement, tant ils se ressemblent tous dans leurs différences. Chacune de ces guerres et chacun de ces conflits ne pourrait-il pas se résumer par l’envie d’une communauté de montrer aux autres que son jouet est meilleur que celui du voisin ?

Si vous pensez que l’on s’éloigne du sujet, sachez que ce n’est pas le cas. Le vrai problème, la vraie question que soulève le développement des IA n’est pas de savoir quand ou comment prendra forme un conflit à ce sujet, mais de trouver comment utiliser le potentiel que détient cette technologie, car ce qui sera déterminant sera la manière avec laquelle elle sera utilisée, que ce soit pour réunir ou pour diviser.

pollution VOCs Sciences & Environnement Environnement

La pollution de l’air change de visage

Petit rappel des faits : la chimie atmosphérique provoquant la création d’aérosols à effet de serre important requière la présence de composés organiques. Traditionnellement, ces composés proviennent des transports et de l’usage de produits dérivés du pétrole. Cependant un changement majeur de cette pollution est en train de se produire aux Etats-Unis.

L’introduction des VOCs

Nous appelons ces composés organique les VOCs (pour Volatile Organic Compounds, soit composés organiques volatiles). Et, malheureusement pour la qualité de notre air, il s’avère que leur concentration est bien plus élevée que prévu (aux Etats-Unis). Cela est dû à un acteur auquel les scientifiques n’ont pas pensé : les ménages. Les VOCs proviennent bien plus des produits de consommation que des transports. Un retournement majeur de notre compréhension de la pollution, en somme.

Cela bouscule les méthodes de recensement de la pollution de l’air et modifie les prédictions scientifiques sur l’évolution de cette pollution. Il est « facile » de prévoir la pollution provoquée par une usine, par le secteur des transports ou bien même par les végétaux qui produisent également des VOCs lorsqu’il fait chaud. Mais il est bien plus compliqué de prévoir cette pollution lorsqu’elle est due au produits de consommation.

Celle-ci dépend notamment de la fréquence à laquelle les habitants ouvrent leurs fenêtres, période d’échange entre l’air intérieur et extérieur. Un comportement aussi basique est un exemple d’a quel point il est difficile d’estimer la production des ménages de VOCs.

Pourquoi les VOCs posent-ils autant de problème?

Avant de parler des problèmes, parlons du positif. Les Etats-Unis agissent déjà contre les VOCs. Il existe en effet des lois régulant la production de ces composés par les usines et le secteur du transport, cela aussi bien aux Etats-Unis qu’en Europe. Cependant, il parait difficile de faire la même chose pour les ménages.

Une autre difficulté posée par les VOCs est leur complexité. Il en existe de toutes sortes, à la durée de vie et à l’action extrêmement variable. Allant de plusieurs mois de présence dans l’atmosphère a quelques minutes, les VOCs ont la propriété de pouvoir s’oxyder plusieurs fois, produisant inévitablement du CO2 et de l’eau.

Un exemple alarmant

Pour prendre un exemple extrême, laissez-moi vous présenter l’isoprène, de formule chimique C5H8. Les estimations sur ce composé sont que son oxydation implique 1928 étapes et 602 espèces organiques intermédiaire avant que du CO2 et de l’eau soient finalement formé. Cela veut dire que, pour étudier son impact réel sur la pollution et sur l’atmosphère, il faudrait étudier chacune de ces 602 espèces. Un travail de titan.

Comment la science peut retourner la situation?

Nous pouvons cependant nous permettre de rester optimiste. Les avancées scientifiques en spectrométrie permettent, par exemple, d’obtenir des données particulièrement précises concernant la concentration de ces VOCs dans l’air. Les auteurs de l’étude scientifiques parue sur Science estiment que les VOCs présent dans notre air peuvent être au nombre de 10 000. Ce qui n’est pas au-delà des capacités des instruments de plus haute technologie. De plus la prise en compte de ses VOCs va ouvrir la voie à l’étude de l’air intérieure, délaissée par le passé.

Ainsi, même si ce retournement de la pollution atmosphérique montre la situation sous un jour plus sombre, il faut toujours se réjouir lorsque que l’on avance. Plus nous connaîtrons les problèmes auxquels nous faisons face, plus il sera facile de se mobiliser contre.

Source :

Science

Pôle Sud de la Lune Sciences & Environnement Actualités

L’inde part à la conquête de la Lune

Dans l’éternelle conquête spatiale, la Lune commence à devenir un enjeu majeur, aussi bien en termes de prospection de matériaux que d’étude pour de futures colonies. C’est dans cette optique que, cet été, un vaisseau Indien va orbiter autour de la Lune et relâcher un atterrisseur.

Celui-ci doit atterrir sur une plaine à 600 km du pôle sud de la Lune.

Ensuite, il relâchera à son tour un Rover qui explorera donc un endroit très peu visité. Tous les autres vaisseaux lunaires ayant atterri près de l’équateur, zone bien plus accessible.

Voici l’ambition actuelle du programme spatiale Indien, qui voit encore plus loin en cas de réussite. Pour revenir à cette mission, son intérêt n’est pas uniquement de prouver que l’Inde a les technologies nécessaires. Il s’agit également de faire de la prospection de ressources.

La Lune et ses ressources

En effet, le Rover sera bardé de tout un tas d’instruments, notamment pour chercher de l’hélium 3, isotope de l’hélium. Il s’agit d’un carburant potentiel pour de futurs réacteurs à fusion nucléaire. Rappelons que l’Inde à été la première à découvrir de l’eau sur la Lune en 2009. Avant ces preuves, beaucoup de scientifiques pensaient qu’il n’y en avait tout simplement pas.

La mission à également pour but l’implémentation de plusieurs capteurs sismiques, venant compléter ceux des missions Apollo. Il ne manque que peu de données aux scientifiques pour comprendre ce qui compose l’intérieur de la Lune. Si la mission est un succès, elle les apportera.

Les détails de la mission

Cette mission de 150 millions de dollars aurait dû partir il y a de cela 3 ans, mais l’atterrisseur (produit initialement par la Russie) n’a pas été concluant. L’Inde affronte donc ce défi seule. Car atterrir si loin de l’équateur est plutôt risqué et très difficile. Très peu de lumière solaire parvient à ces zones, et il convient donc de gérer avec parcimonie tout le carburant et toute l’énergie du véhicule, l’utilisation de panneaux solaire étant peu rentable.

Le Rover est par exemple très léger, seulement 25 kg (rappelons que Curiosity, Rover martien, pèse 900 kg). Il emportera également 2 spectromètres pour analyser la composition de la Lune. La zone est en effet très intéressante, celle-ci étant composée de roches vieilles de plus de 4 milliards d’années et résultant de la solidification du magma qui couvrait la Lune nouvellement formée. C’est une zone très peu soumise au bombardement d’astéroïdes car très proche du pôle Sud.

Plus de détails sur sa composition en eau

La communauté scientifique est évidemment impatiente d’obtenir toutes ces données, mais encore plus celle concernant l’eau. En effet c’est au niveau des pôles que la concentration en eau est la plus importante. Le fait de connaitre précisément où et combien d’eau il y a sur la Lune est une donnée essentielle à d’hypothétiques bases lunaires.

Un atterrissage réussi serait néanmoins et surtout un grand accomplissement pour l’inde. Un moyen de faire rayonner l’image du pays à travers le monde comme une puissance scientifique et spatiale.

classification exoplanètes Sciences & Environnement Actualités

Classification des exoplanètes

Depuis la découverte de la première exoplanète en 1995, une véritable fascination s’est crée pour ces dernières. Si bien qu’aujourd’hui, on en compte plus de 3700. Face à ce nombre gigantesque et qui continuera à grandir (notamment grâce à l’arrivée de nouveaux télescopes spatiaux) les scientifiques ont eu besoin d’une manière de s’y retrouver.

Ainsi, la création d’une table de classification des exoplanètes a été un bon moyen de trier et d’étudier la répartition des différents types de planètes dans l’espace. La solution se présente sous la forme d’un tableau de classification inspiré de celui de Mendeleïev pour les éléments chimiques.

Création de la table périodique des exoplanètes

L’équipe à l’origine de ce tableau est celle d’Abel Mendez, de l’université de Porto Rico à Arecibo. Le tableau classe ces exoplanètes selon 18 cases et  6 en colonnes triant la masse et la taille,  et 3 en ligne catégorisant la température. Les planètes peuvent ainsi être catégorisées, ce qui facilite grandement le travail  des chercheurs.

Quelques données intéressantes ressortent déjà du tri des planètes découvertes à ce jour. Par exemple, la catégorie « Jupiters chaudes » est la plus présente en proportion, alors que ce type de planète est absent de notre système solaire ! De plus, seules 0.6% des planètes découvertes à ce jour correspondent à un type semblable à celui de la Terre. Autrement dit, seulement 0,6% des exoplanètes sont potentiellement habitables (et ce chiffre se réduit encore lorsqu’on prend en compte d’autres critères)

Evidemment ces résultats sont à relativiser, la puissance de nos télescopes nous permettant de découvrir bien plus facilement des planètes de type « Jupiters chaudes ». La principale méthode de découverte d’exoplanètes est l’observation des étoiles. Si une faible obscuration de la lumière de l’étoile se produit d’une façon plus ou moins périodique, on peut supposer l’existence d’une planète orbitant autour de l’étoile. On voit donc bien que les « Jupiters chaudes » ont plus de chance (pour le moment) d’être découvertes.

Découvrir soi-même le tableau

Je vous conseille vivement d’aller jeter un coup d’œil à ce tableau et plus particulièrement à son actualisation. En effet sur le site fourcaudot, assez vieux à l’échelle de la rapidité à laquelle on découvre les exoplanètes, vous retrouverez le tableau tel qu’il était en 2012. La rapidité de nos découvertes est impressionnante. N’hésitez pas à consulter nos sources! Si le sujet vous passionne, vous pourrez peut être y apprendre encore plus !

Sources :