Fatigue gigacyclique

La fatigue Gigacyclique permet de réaliser 1 milliard de sollicitations mécaniques en 10h.

  • Fréquence de sollicitation : 20kHz
  • 109 cycles en moins de 14h
  • Tests en des temps économiquement viables
  • Installation en 15min sur système classique
  • Simplicité d’utilisation
  • Simplicité de calibration

 

 

 

 

 

 

Télécharger notre brochure

Toutes nos machines de fatigues sont pilotées à partir de notre logiciel WinVHCF.
Principales caractéristiques :

  • Sélectionnez l’amplitude de sollicitation et le nombre de cycles à atteindre
  • Réalisation automatique de plusieurs séries de sollicitations à différentes amplitudes
  • Arrêt automatique une fois l’éprouvette cassée.
  • Simplicité d’utilisation

Éléments fournis :

  • Support en acier
  • Générateur de signaux
  • Convertisseur

 

GF20-TC : Machine clé en main

Essais en Traction-Compression

  • Essais à 20kHz
  • Eprouvette cylindrique
  • Sonotrode TC pour des amplitudes entre 3,6µm et 20µm
  • Sonotrode TGD pour des amplitudes entre 17µm et 80µm

 

 

 

GF20-KB : Machine clé en main

222

 

Essais en Compression-Compression

  • Essais à 20kHz
  • Sonotrode TC
  • Booster (Amplificateur)

 

 

 

 

GF20-KT : Machine clé en main

 

3333

 

Essais en Tension-Tension et Tension-Compression

  • Kit adapté aux machines de fatigue conventionnelles
  • Installation en 15minutes
  • Stress ratio de 0 à 0,8

 

 

 

 

 

Fiables et robustes, nos machines de fatigue gigacyclique permettent de tester les matériaux en traction-traction, traction – compression, compression – compression sur plus d’un milliard de cycles en moins de 14h.

Automobile

Éolien

Aérospatial

Ferroviaire

Recherche

Que ce soit pour l’aérospatial, l’éolien, la recherche,… nos machines de fatigue constituent un atout majeur en terme de sécurité, de prévention des risques et de fiabilité de vos pièces mécaniques.

 nasa renault safran  oxford
 ensam karlstad

L’état de l’art

Lorsque Wöhler proposa  la courbe d’endurance en fatigue, les applications du moment étaient celles de la machine à vapeur destinée aux locomotives ou aux bateaux. Ces machines lentes fonctionnaient à quelques dizaines de cycles par minute, avec des durées de vie comprises entre 106 et 107 cycles. Il était tout à fait justifié au plan pratique de considérer une limite de fatigue mégacyclique, d’autant qu’au plan expérimental les machines de tests de fatigue de l’époque ne permettaient pas de dépasser la dizaine de Hertz.

Aujourd’hui, la vitesse de rotation des moteurs étant de l’ordre de plusieurs milliers de cycles par minute, la durée de vie d’un moteur à explosion se compte en centaines de millions de cycles et celui des turbines en milliards de cycles, pour ne citer que ces exemples. Celà étant, les essais de fatigue au-delà de 107 cycles sont assez rares pour des questions de coût lié au fonctionnement des machines de tests conventionnelles.

Il convient de noter par ailleurs que les essais de fatigue accélérés grâce aux machines à résonance n’ont pas connu un succès suffisant. Le reproche formulé porte souvent sur le contrôle des paramètres d’essais avec les machines à résonance. Ce reproche n’est plus justifié aujourd’hui avec le pilotage par ordinateur et l’existence de capteurs à réponse très rapide. Il existe actuellement des machines de fatigue très fiables, capables de produire 1010 cycles en moins d’une semaine alors que les systèmes conventionnels conduisent à plus de trois ans d’essais pour une seule éprouvette.

On peut se demander alors s’il est suffisant d’appliquer les normes (Fig.1) pour connaître une limite de fatigue sûre au dela de 107 cycles, à partir d’une approche statistique, ou bien de déterminer une courbe S-N jusqu’à 1010 cycles et au-delà. Pour résumer la situation actuelle, on admet que la notion de limite de fatigue est liée à l’hypothèse de l’existence d’une asymptote horizontale sur la courbe S-N à partir de 106 ou 107 cycles. On considère ainsi que toute éprouvette non rompue à 107 cycles a une durée de vie infinie, ce qui est en réalité une approximation pratique et économique mais peu rigoureuse.

Il convient de bien comprendre que si la méthode de l’escalier est populaire aujourd’hui pour déterminer la limite de fatigue, c’est pour faire l’économie de la durée des essais. Une limite de fatigue déterminée par la rupture de l’éprouvette à 107 cycles demande environ 30 heures d’essais avec une machine fonctionnant à 100 Hertz. Pour atteindre 108 cycles, il faudrait 300 heures d’essais, soit une démarche coûteuse. D’où l’intérêt des essais accélérés rendus possibles avec les machines de fatigue piézoélectriques.

 

Principe de la machine de fatigue piezoelectrique.

Le principe général de la fatigue vibratoire a déjà fait l’objet de plusieurs publications. On ne rappellera donc ici que la théorie essentielle. Une référence complète peut être trouvée dans l’ouvrage de C Bathias et PC Paris « Gigacycle Fatigue in Mechanical Practice » chez Dekker/CRC (2005)

Le principe de base de la machine de fatigue vibratoire (Fig.2) est de produire dans l’éprouvette une résonance vibratoire stationnaire. Pour cela, il faut tout d’abord un convertisseur capable de convertir le signal sinusoïdal fourni par le générateur électrique en vibration mécanique. Le convertisseur et le générateur commercialisés ont généralement une fréquence fixe (20kHz).

 

Normalement, la vibration du convertisseur est trop faible pour endommager l’éprouvette. Une sonotrode est nécessaire pour amplifier l’amplitude de déplacement vibratoire. Si le système de vibration (convertisseur, sonotrode et éprouvette) a la même fréquence intrinsèque (20KHz), on peut obtenir une forte amplitude de vibration avec une faible énergie et une onde stationnaire dans le système.

Les hypothèses de l’analyse théorique  en fatigue vibratoire sont les suivantes:
– Le métal étudié est homogène et isotrope.
– Le matériau est élastique (le domaine plastique étant considéré comme négligeable devant le domaine élastique dans le cas de la fatigue à très longue durée de vie).
– La vibration s’effectuant de façon longitudinale, l’analyse théorique peut été simplifiée à une dimension.

Dans ces conditions les machines de fatigue piézoélectriques ne peuvent produire des résultats qu’à partir de 106 cycles en régime élastique. Elles ne peuvent évidemment pas remplacer les machines hydrauliques.

Historique des machines de fatigue  piezoelectriques

Dans la littérature, les premières publications sur la fatigue vibratoire avec une fréquence de 33 Hz remontent à 1911. Elles sont l’œuvre de Hopkinson puis de Jenkin et Lemann, mais la première machine capable d’atteindre 20KHz a été mise au point par Mason en 1950. Cette fréquence est un seuil au-dessous duquel l’onde devient audible. En 1959 et 1965, Girard et Vidal vont mener respectivement des essais pour accroître la fréquence à  92 et 199 KHz. Mais par manque de moyens informatiques suffisants à cette époque, il n’était pas possible de piloter correctement les essais et les résultats obtenus n’ont pas été convaincants. Ce n’est que très récemment que le pilotage numérique des machines  piézoélectriques a été réalisé par C.Bathias et son équipe.

Cette technique, avec un standard non officiel d’environ 20 KHz, est utilisée pour les études de la fatigue des très longues durées de vie des matériaux et de la mécanique de la rupture.

Depuis 1970, les moyens expérimentaux en fatigue vibratoire ont été améliorés. D’autres systèmes et de plus en plus de possibilités d’essais ont été développés. En 1996, S. Stanzl a résumé le développement et les différents aspects de la fatigue ultrasonique. En 1998, le premier congrès international intitulé « Fatigue Life in the  Gigacycle Regime » a été organisé en France, sous l’égide d’Euromech. Puis trois autres ont suivi à Vienne(2001), Kyoto(2004) et Ann Arbor (2007), preuve qu’une attention récente est accordée à la fatigue des très grands nombres de cycles.

C’est le système d’essai de fatigue vibratoire, mis au point dans le laboratoire de C. Bathias  avec  un haut niveau technologique, qui est commercialisé par LASUR.

Références bibliographiques du Pr. Claude BATHIAS :

Fatigue des matériaux et des structures : Tome 1, Introduction, endurance, amorçage et propagation des fissures, fatigue oligocyclique et gigacyclique Broché – 16 avril 2008

Fatigue des matériaux et structures : Tome 2, Fissures courtes, mécanismes et approche locale, fatigue-corrosion et effet de l’environnement, changements d’amplitude variable Broché – 16 avril 2008

Fatigue des matériaux et des structures : Tome 3, Fatigue à haute température, effet des entailles polymères et élastomères, approche probabiliste, prévision croissance des fissures Broché – 10 janvier 2009

Fatigue des matériaux et des structures : Tome 4 Fatigue multiaxiale, thermique, de contact, défauts, cumul et tolérance aux dommages Broché – 19 septembre 2009

Return to basics

To measure a surface temperature we use the radiation flux of thermic origin that all bodies emit. The physical law that governs this phenomenon is Planck’s Law that describes the behavior of an ideal entity called the blackbody. The set of curves in Figure 1 describes the spectral distribution of this radiation for several temperatures representative of those commonly encountered, particularly in metallurgy.

 

 

 

We see that the peaks of these curves are located in the infrared (λ>0,8µm) and that the hotter the body is, the more the curve shifts toward short wavelengths.
All equipment currently marketed work in the infrared, meaning close to energy peak, which allows reducing the cost of their fabrication.

 

Emissivity gets in the way

 

Unfortunately the blackbody is a purely theoretical entity for, in nature, no body is perfectly black or even grey. Planck’s Law gives only the maximum radiant energy that a body can emit. This value must be weighed by an inclusive factor between 0 and 1 called emissivity and symbolized by the Greek letter ε. To complicate everything, this factor which depends on the nature of the body to be measured, varies according to the condition of the surface (oxidized or not), the wavelength and even the temperature! If controlling an industrial process is desired in following the evolution of the heating of a body, a constant and precise temperature measurement is necessary. However, as we have seen, the result obtained by measuring the flux depends also upon the variation in emissivity. Up to now, there has been no reliable and exhaustive experimental data available that would allow an analytical representation of this factor, or even a reliable interpolation with all the parameters concerned. In the low-cost equipment that can be found on today’s market there is a pre- defined emissivity value, usually 0.8. On the more sophisticated equipment the user chooses an emissivity value that remains unchanged until the end of the running process. As a direct consequence, the measurement result is false and the estimation of the error value is very unpredictable since we have no idea of the amplitude of variation of ε !

 

Signal variation 100 times greater in ultraviolet

Ultraviolet pyrometry and its generalization, ultraviolet thermography, bring the solution because the measurement is done in a spectrum range where the signal variation with temperature is so large that it hides the consequences of an emissivity variation. Due to the linear scale used in Figure 1, there is no evidence of the steep slope of the curves on the left of the energy peak. In Figure 2, with a logarithmic scale, we zoom toward the short wavelengths for the two temperatures 800°C and 1000°C.

 

 

It can be seen that at 0.3µm, in the UV, a 200°C variation results in a multiplication by 1000 of the energy signal, whereas it is only multiplied by 10 at 1µm. The drawback is that the energy levels in the UV are 10-10 times lower.

A reliable solution, highly sensitive and sturdy

Photomultipliers are detectors that have been designed to deal with these extremely weak energy levels. We use photomultipliers in the photon counting mode whose intrinsic noise is only 10 photoelectrons/second and a 100 photoelectron/second signal (that is to say 10-16 joules) is good enough to get a significant measurement result. Due to the extreme sensitivity of our detectors we can work with a very narrow bandwidth, almost monochromatically. Since the signal doubles every 20°C, we obtain very precise results. Another advantage of such a measurement process is that it is fully digital, from the captor to the display of the result. Thus we get rid of the drift problem that is the main flaw with analog devices and we get an excellent repeatability of results. Moreover, these photon counting devices have proven to be very sturdy and they can work continuously in a harsh environment for years.

X