Nous sommes habitués à lire des communiqués, et des images en provenance des équipes ultra formatés, souvent de la pure propagande. Le meilleur exemple est la vidéo produite par BMW Oracle Racing concernant une conférence à Munich où l’on voit des images de leur trimaran en mode accéléré mais sans aucune information concernant la technique. On apprend juste que leurs différents développements (aile, modification quasi complète de la structure) a permis une amélioration de 20% des performances de leur voilier (source Bor). Heureusement Polo nous a partagé en commentaire un lien sur le site de l’EPFL (Ecole Polytechnique de Lausanne) dédié à Alinghi.

Que de la technique j’adore !. Comme je suis sympa, je vous le partage également en image et en commentaire. En plus comme pour les américains, tout ça est en français: Modélisation, mesure du composite, mesure des voiles, et optimisation des trajectoires.

Modélisation

[media id=110 width=540 height=320 ]

Les essais en bassin de carène c’est finit maintenant tout est modélisé sur ordinateur: Le Computational Fluid and Structural Dynamics (CFSD). Je vous accorde que l’on n’apprend pas grand chose dans cette présentation mais les explications et les images du maillage sont sympas. La difficulté n’est plus la modélisation mais l’optimisation des temps de calcul. En effet le challenge des équipes de design est d’optimiser les algorithmes mais aussi la puissance de calcul pour réussir à fournir les résultats en temps raisonnable et réaliser plusieurs tests. Nous ne sommes plus à l’époque des gros calcultateurs comme le CRAY mais à celui du calcul parallèle sur des dizaines d’ordinateurs: ce que l’on appelle le cloud computing. Plusieurs prestataires privé fournissent du temps processeurs quasiment illimité, où le client ne paye que ce qu’il a besoin. Je me demande comment se place la recherche dans ce domaine, est ce que vous pouvez nous éclairer ?.

Mesure des efforts sur le composite

[media id=108 width=540 height=320 ]

[media id=109 width=540 height=320 ]

Ces deux reportages montrent la nécessité de mesurer les efforts sur le sandwich composite qui est l’ingrédient principale de la coque et du mât. Il est indispensable de connaitre la résistance intrinsèque du matériaux mais aussi de mesurer en temps réel les contraintes sur la structure. C’est un challenge difficile pour les équipes de design et d’instrumentation. Si nous étions en mesure de fournir des informations pertinentes nous verrions moins de casse.

J’ai été particulièrement étonné lors du démâtage du trimaran de BMW Oracle Racing (les photos du démâtage). Ils nous vantent leurs systèmes de mesure avec plus de 2000 points enregistrés par seconde mais il n’a pas réussi à alerter les marins qu’ils poussaient la bête trop loin. Depuis j’ai appris que l’électronique n’était pas connecté lors de cette navigation…

L’autre exemple notable dans l’actualité c’est Groupama 3. Il y a plus d’un an, le trimaran géant de Franck Cammas casse son flotteur et chavire au large de la Nouvelle Zélande. Les ingénieurs sont inquiets, ils n’ont aucune information sur le pourquoi du comment. Il a été donc décidé lors de son retour de mieux instrumenter le voilier géant. Bizarrement dans un reportage lors de la dernière tentative de Jules Verne (novembre 2009), nous pouvons voir Thomas Coville vérifier à la torche l’état de la structure des flotteurs. A priori, il n’y a pas de problème mais malheureusement le lendemain, Franck décidait d’abandonner suite à une faiblesse sur la structure…

C’est effectivement un problème important. Nous travaillons à avoir des capteurs toujours plus viables et surtout connectés en temps réel aux systèmes de navigations. Je sais que plusieurs lecteurs de mon blog travaille sur le sujet alors n’hésitez pas à nous faire partager votre expérience.

Mesure des voiles

[media id=106 width=540 height=320 ]

C’est un sujet que j’ai abordé plusieurs fois sur ce blog sous le terme de Sailvision. Je vous invite donc à relire mes billets sur le sujet en particulier celui-ci: Le réglage des voiles assisté par ordinateur. J’y décrit les système optiques mis en place pour cette mesure sur plusieurs voiliers et j’évoque en particulier les travaux intéressant de EPFL sur le sujet pour l’hydroptère. Il est donc normal de retrouver cette application sur Alinghi 5. Leur système est vraiment intéressant car il est portable facilement et probablement plus fiable que les anciens utilisés sur la dernière Coupe de l’America. Cette reconstruction avec un maillage contraint permet d’effectuer des mesures à l’extérieur du voilier comme on peut le voir dans cette vidéo, encore un outil de plus dans la poche des espions…

19/11/2009 - San Diego (USA, CA) - 33rd America's Cup - BMW ORACLE Racing - Wing Trials

Dirk de Ridder, trimmer de la voile rigide

Toutefois je le répète encore une fois, la précision des systèmes optiques n’est pas exceptionnelles par rapport à la précision de la modélisation des aérodynamiciens. Et on mesure toujours que la forme et pas encore l’effort induit. De toute façon, tout ça est dépassé avec la voile rigide de BMW Oracle Racing dont la forme doit être connu au millimètre (encore des chômeurs de plus…).

Optimisation des trajectoires

[media id=107 width=540 height=320 ]

C’est bien la première fois que je vois le sujet traité de manière scientifique: Comment améliorer la trajectoire d’un voilier ?. Sur les images nous pouvons avoir l’impression de revoir la bonne veille méthode des isochrones qui ont fait les succès des outils de routage comme Maxsea. J’imagine que le maillage est beaucoup plus fin et les techniques élagage des solutions plus performants que dans les produits grand public. J’ai noté qu’ils intégraient les perturbations de l’adversaire, ce qui est une innovation non négligeable, même si pour le duel de février prochain ca me parait peu utile. Non ?.

Comme le disait Dimitri Despierres, ingénieur des américains, on va bientôt pouvoir se passer des tacticiens. Le routage pourra être effectué directement par des ordinateurs. Bien sur cela n’est pas souhaitable et nous en sommes loin. Toutefois je trouve passionnant ce sujet (c’était mon mémoire de DEA). Que des chercheurs puissent travailler sur le sujet avec l’accord des régatiers me parait encourageant. Je suis persuadé que ces derniers ont des choses à apprendre de ces études. Est ce que je suis le seul à penser ça ?.

Conclusion

Merci à l’EPFL pour ces reportages disponibles à l’adresse suivante: alinghi.epfl.ch. C’est dommage qu’il n’y ait pas le nom des chercheurs dans ces vidéos ou sur le site.
Bref J’adore la technique et vos commentaires sur le sujet, donc à vous !. Vous pouvez retrouver toutes les billets sur la technique dans le coin de la technique.

PS: Encore une fois, je suis preneur de traducteur pour une version anglaise.

26 réponses à “EPFL met en équation Alinghi 5”
  1. Laul dit :

    Si tu es intéressé par les noms tu dois les trouver sur le site général de l’EPFL en fonction des labos
    http://www.epfl.ch/index.fr.html

  2. CBR dit :

    Je ne comprends pas tout, mais c’est quand même super intéressant !

    Par contre, ça conduit à se poser la question de l’évolution de la Coupe dans le futur.

    Personnellement, j’ai l’impression qu’on a le choix entre deux options opposées:
    – Une coupe en Multicoque, avec des bateaux de rêve mais peu de combat sur l’eau (la F1 en gros)
    – Un coupe qui reviendrait sur des monocoques, proches de ceux utilisés jusqu’ici. Pas révolutionnaires sur le plan technique (encore que le diable se cache bien souvent dans les détails, mais avec du gros combat (cf. le LV Cup).

    Qu’est-ce que vous, les anciens ou futurs de la Coupe, vous préférez ?
    Question bonus: dans quel format la France aurait-elle le plus de chance de ne pas trop mal figurer ?

    • leloublan dit :

      As tu deja vu un grand prix ORMA ou en D35 ou Grand Prix Ventilo 28 avec 25 bateaux ?

      • CBR dit :

        C’est vrai, mais il s’agit de compétitions monotypes (D35) ou de compétitions dans lesquelles…Groupama 2 gagnait à la fin (ORMA).

        C’est impressionnant, il y a de la baston. Mais, je redis que la Coupe en Multi court le risque d’être plus rapide (miam) mais un peu ennuyeuse (prépondérance absolue du design).

        • leloublan dit :

          Et pourquoi Groupama ou Banque Pop gagnait a la fin
          Parce que comme dans la Coupe c est souvent ceux qui ont le plus gos budget qui gagne……….La coupe est devenue passionante quand on est arrive en bout de jauge Tout le monde savait quoi faire .C est comme ca pour toutes les jauges

  3. Ben dit :

    Il y a beaucoup de bagarre en F1 !! Et la France est bien placée dans les 2 domaines !!

    La question complémetaire à se poser : qu’est-ce que les media / sponsors préfèreraient, car, on a beau rêver avec notre joli sport… sans pognon, ce ne sera ni monocoque, ni multicoque !

  4. extremeblue dit :

    Je crois que l’on peut essayer de séparer l’aspect technologique en plusieurs poles pour ce qui concerne les architectures de calcul intensif : le HPC (high performance computing), le deep computing, le grid computing et le dernier arrivé, le cloud computing. Le premier volet concerne la densité des processeurs et réduction du volume machine (on arrive à mettre 800 processeurs Core Xeon dans 1 seule armoire). Le deuxième volet, on a atteint le PETAFLOP pour une seule application !! Il s’agit de ce que l’on appele du massivement parallèle (CNRS, EDF par exemple). Pour les 2 autres aspects, il s’agit de la virtualisation. Prise en compte de tous les éléments techniques (machines, disques, ..) en réseau pour utilisation de ressources disponibles. Une couche applicative particulière permet l’accès au réseau créé de mettre à disposition des ressources phénoménales (par exemple l’emploi de plusieurs milliers de PC, laptops de particuliers a été utilisé pour la recherche génétique).

    • leloublan dit :

      Competence 10/10
      Pedagogie 1/10

      • CBR dit :

        En gros, Extremeblue décrit les différentes méthodes utilisées pour partager des calculs entre plusieurs machines/processeurs.

        Pour simplifier, la puissance de calcul augmente très vite et les outils pour l’exploiter se développent eux aussi à une vitesse folle.
        Ca permet à tous les design team qui disposent de l’argent pour louer du « temps de calcul » d’effectuer leurs simulations même s’ils ne disposent pas de calculateurs « in house ».

        • leloublan dit :

          Petaflop toi meme ,bon sans exemple concret ca ressemble plus a de la promo qu autre chose
          Et ca fait longtemps que l on as pige que celui qui disposait de la plus grosse calculette avait un avantage mais concretement la je vois rien…………………..

        • Fab dit :

          J’espère juste que ce qu’on voit à l’écran ne sert pas de méthodo pour les simulations du cata Alinghi.

          Pour être du métier, mais dans l’automobile, le maillage à l’air une bonne 10aine de fois trop grossier, et encore, pour ne pas dire 100!

          Je ne pense pas qu’on puisse obtenir des résultats crédibles avec ça! Rien que pour capter les séparation ou les turbulences, il faut avoir plus de 0.2 cellule dans la couche limite!
          C’est bien mignon les équations, mais à un moment il faut mettre les sous derrière pour avoir qqch de correct!

  5. bzhb dit :

    Interessant.
    Sinon les calculs intensifs requis pour les calculs de structures et de mécaniques des fluides se font sur des machines de type supercalculateur : c’est à dire des clusters d’ordinateurs optimisés pour faire un très grand nombre d’opération le plus rapidement possible. Effectivement, contrairement au Cray des années 80 qui utilisaient une architecture faite spécialement pour, on a plutôt tendance aujourd’hui à prendre des processeurs basique (et qui chauffe/consomne peu) et à les utiliser de manière massivement parallèle.
    Mais à part l’utilisation massive de serveurs, ceci n’a pas grand chose à voir avec le cloud-computing : le cloud-computing c’est le fait de mettre les applications et les données de monsieurs tout le monde dans des serveurs (= »dans les nuages ») plutôt que sur leur ordinateur personnel. Exemple typique : gmail.

    • Fab dit :

      Sauf que le cloud computing ne s’applique pas du tout au cloud computing. La vitesse de connexion entre le nœuds du calculateur à une importance capitale sur le performance. Alors passer par internet.
      Ça serai rêvé mais bon….

  6. kalibidou dit :

    MDR …je suis comme leloublan…. rien compris!
    extremeblue tu peux vulgariser tout 4a!
    ?
    merci

    • extremeblue dit :

      Désolé pour le language employé. Le pétaflop correspond à un million de milliards d’opérations par seconde, c’est une unité de puissance. Les facteurs de puissance plus usuelles sont le kilo (10 puissance 3 ou 1000), méga (10 puissance 6), giga (10 9), tera (10 p 12) puis péta (10 puissance 15). Dans l’exemple cité, cette puissance a été obtenue sur un seul ordinateur. Dans d’autres exemples une puissance de calcul peut être obtenue par des milliers de PC en réseau. Cette puissance de calcul pour le sujet de Mathieu est utile pour le calcul en éléments finis, maillage, …

  7. obillard dit :

    petaflop: j espere que ca ne sera pas la conclusion de cette coupe entre les 2 géants

  8. JMF dit :

    La personne interviewée dans la vidéo sur la modélisation est Alfio Quarteroni, http://iacs.epfl.ch/cmcs/AQ/public.htm, directeur du groupe modélisation et calcul scientifique (CMCS) de l’EPFL.

    @ Matthieu
    Je ne suis pas du tout d’accord avec toi quand tu dis que les bassins c’est fini. On est encore très loin du compte en CFD (i.e. Colourful Fluid Dynamics :-)) . Les équations de base de la mécanique des fluide sont connues mais leur résolution directe demande un maillage tellement fin que ce n’est applicable que pour des phénomènes très locaux. Pour les cas réels, et en particulier pour les écoulements extérieurs : bateaux, avions, voitures, il faut des maillages plus grossiers avec une modélisation du comportement du fluide plus globale. On est obligé de faire des hypothèses, entre autre sur le comportement de la turbulence, et là ça devient le gros bazar. Il y a différents modèles de turbulence qui ont tous des limitations. Résultat, dans les codes CFD il y a un certain nombre de paramètres qu’il faut ajuster pour obtenir des résultats qui collent avec les essais, et un jeu de paramètres marche dans certains cas et ne marche plus dans d’autres. En plus, le maillage du volume de calcul est un cauchemar. Il représente la moitié de la résolution du problème et il est fait à la main. En gros il faut déjà connaitre l’écoulement réel pour faire un maillage correct. Il y a aussi des problèmes avec les conditions à spécifier sur la surface du volume de calcul: elles sont assez arbitraires. Si on rajoute à tout ça une surface libre, on augmente encore la difficulté. Il faudra pendant encore un certain temps des souffleries et des bassins pour vérifier la validité des calculs CFD. Ceci dit les souffleries et les bassins ont aussi leurs limitations.

    • trebormat dit :

      Merci pour ces précisions. Tu dois savoir que quand j’ai écris que « c’est fini », c’est volontairement provocateur…

    • Eric C. dit :

      Je me suis fait griller d’une 1/2 heure, tant mieux ça me permet de me contenter d’un simple « tout pareil que JMF » :)
      Effectivement, quels que soient les progrès de la simulation numérique, le recours au proto physique reste nécessaire. Le gros intérêt de la simu, c’est de réduire le nombre de ces protos, et même si la corrélation entre calcul et essai laisse encore à désirer, les itérations que l’on peut faire sur les modèles vont dans le même sens qu' »au physique » … la plupart du temps :)
      En tout cas merci pour les infos et les liens, j’avoue être fan de ces billets techniques.

  9. JMF dit :

    Je suis tombé dans le panneau :-) .

    • AD dit :

      C’est bien les calculs mais…les 20% j’y crois!
      je suis surpris que l’aile ait été opérationnelle aussi vite…le dématage est arrivé au bon moment quand même!
      Finalement elle est intéressante cette coupe : elle va bousculer un certain nombre d’idées recues

  10. marco dit :

    Tout d’accord avec Extremeblue.
    Et si l’on remarque auusi qu’un processeur Core2Duo, avec une puissance d’environ 25 gigaflops, est 25 fois plus puissant qu’un Cray2 des années 85, on n’a pas trop à se préoccuper des besoins en calcul pour l’avenir.
    Le problème, comme le dit JMF n’est pas vraiment là, mais dans la modélisation.
    Merci encore à Mathieu pour ces vidéos très intéressantes.

  11. gattaca dit :

    Et si les capteurs du mat d’oracle était bien branchés et qu’ils se sont amusés à le peter pour verifier le dimensionnement et le système de mesure sachant qu’il avait une aile rigide flambant neuve a essayer et pas trop de problème de budget…

    • doublemexpress dit :

      Je suis un peu de cet avis ! ! ! ! ! !

      Si ce n’est que le risque était grand de « dommage collatéraux » (autres structures … ou équipiers ! ! ! )

      Alors ? ? ? ?

  12. gattaca dit :

    C’était une méthode assez « classique » pour ceux qui, il y a quelques années voulaient passer du gréement alu au carbone à pas cher.

    Mais c’est vrai que là, les proportions ne sont pas les mêmes…

  13. gattaca dit :

    J’en profite aussi pour des questions, vu qu’il y a l’air d’avoir des specialistes de la dynamique des fluides.

    Ok on contrôle parfaitement la forme d’une aile rigide, mais du coup on ne peut plus du tout jouer sur le creux et la puissance de celle-ci.

    Et puis une aile rigide à panneaux avec toutes ses discontinuités, ça doit pas être terrible pour les ecoulements, non?

  14.  
Répondre


Creative Commons License
Blog Tribord Amure par Matthieu by Matthieu ROBERT est mis à disposition selon les termes de la licence Creative Commons Paternité-Pas d'Utilisation Commerciale-Partage des Conditions Initiales à l'Identique 2.0 France.