Ein Blick zurück.....

Liberty Schiff mit Sprödbruch

Angefangen hat alles wohl schon in der Steinzeit, wenn Werkzeuge aus Stein oder Knochen bei der Herstellung oder dem Gebrauch häufiger (spröde) brachen als man wollte. Allein die numerische und analytische Behandlung des Detailproblem stand noch eine Weile aus.....

 

Richtig entwickelt hat sich die Bruchmechanik dann als Teildisziplin der Mechanik in den Anfängen der großtechnischen Entwicklungen im 20. Jahrhundert. Jeder technische Student hört heute irgendwann in der Mechanikvorlesung etwas vom Bruchkriterium nach Griffith, welches in den 20er Jahren des vorherigen Jahrhunderts als Energiebetrachung bei der Entstehung neuer Oberflächen entwickelt wurde und woraus die Energiefreisetzungsrate G und der Spannungsintensitätsfaktor K abgeleitet wurden. Übrigens ist der Parameter G für den linear-elastischen Bereich gleich dem heute gebräuchlichen Bruchmechanikparameter, dem J-Integral.

 

Allgemein wird die Entwicklung der praktischen  Anwendung der Bruchmechanik mit dem Namen der Liberty Schiffe der US-amerikanischen Handelsflotte im 2. Weltkrieg in Verbindung gebracht. Das plötzliche Auseinanderbrechen dieser geschweißten Schiffe gab den Ingeniueren Rätsel auf und führte zur Anwendung der Grundlagen der Bruchmechanik in der Praxis ab den 40er Jahren des 20. Jahrhunderts. 

 

Andere sicherheitsrelevante Bereiche wie die Luft- und Raumfahrt folgten schnell  und brachten bis in die 60er Jahre hinein viele Erkenntnisse. Erkenntnisse, die für Strukturen mit linear-elastsichem Verhalten und möglichem unterkritischem Risswachstum von Bedeutung waren und die für die Bauteilsicherheit einerseits und die optimale Werkstoffausnutzung andererseits neue Möglichkeiten erschlossen. Das heute bekannte Rechenprogramm NASGRO geht im Kern auf diese Arbeiten zurück.

 

Mit dem wachsenden "Energiehunger" der industrialisierten Gesellschaften kammen auch die ersten Energiekrisen und Überlegungen hinsichtlich Förderung von Erdöl vom Meeresgrund (Off-Shore) und vor allem Entwicklung von nuklear getriebenen Kraftwerken zur Stromerzeugung. Beide Techniken, und dabei insbesondere die Nukleartechnik mit ihrem enormen bis dahin nicht bekannten Risiken für Mensch und Umwelt, sorgten für hohe Sicherheitsanforderung und für einen Entwicklungsschub bei der Bruchmechanik in Europa, Japan und den USA.

 

Aufgrund der Notwendigkeit geschweißte  Konstruktionsstähle mit elastisch-plastischem Verhalten im Traglastfall beurteilen zu müssen,  wurden die elastisch-plastische Kennwerte J-Integral und CTOD (Crack Tip Openeing Displacement) entwickelt und zur Anwenungsreife gebracht. Vorreiter in Europa waren hier sicher die Engländer, was erklärt warum  vielfach im englisch geprägten Off-Shore Business noch heute nach CTOD-Werten für die Stahlqualifizierung gefragt wird. Ob das aus heutiger Sicht noch sinnvoll ist soll aber anderer Stelle erörtert werden.

 

Parallel dazu hatte sich auch die Rechnertechnik und damit die Finite-Elemente-Methode zur Berechnung von Bauteilbeanspruchungen infolge äußerer Einwirkungen stark weiterentwickelt. Damit konnten für die bruchmechanische Berechnung auf der Bauteilseite die Rissspitzenbelastung genauer berechnet und dem Werkstoffwiderstand gegenübergestellt werden (Grenzzustandsbedingung für Rissinitiierung). Dass heißt , dass man jetzt mit einer Grenzzustandsgleichung besser berechnen konnte, wann ein Riss kritisch wird oder wie groß die maximale Last bei anzunehmenden Rissen ist oder wie große die Mindestzähigkeit des Werkstoffs sein muss.

 

Außerdem konnten für typische Fehler-Bauteilkonfigurationen Kataloge mit analytischen Handbuchlösungen entwickelt werden, die eine Berechnung ohne FEM ermöglichen. Da diese Berechnungen nur linear-elastisch waren, wurde mit dem Failure Assessment Diagramm (FAD) beim CEGB (Central Electric General Board) in England eine Möglichkeit geschaffen, die bauteilbezogenen K-Werte plastisch zu korrigieren. Das Verfahren nennt sich auch 2-Kriterien-Verfahren. Dieser Ansatz war und ist ein Schlüssel für die erfolgreiche Anwendung der Bruchmechanik in der heutigen Praxis. Aus den 70er Jahren stammen dann  auch die ersten Richtlinien, die eine Anleitung beinhlaten, um bruchmechanische Berechnungen durchzuführen (PD6493, CEGB R6, beide UK; EPRI, USA).

 

Nachteil der Methode war zu dieser Zeit immer noch, dass insbesondere Werkstoffwiderstandwerte (Bruchmechanikkennwerte) sehr aufwändig in der experimentellen Bestimmung waren, und sich daher nur für Hochsicherheitsbereiche, wie der Reaktorsicherheit und der Off-Shore Technik, mit anderen Kostenstrukturen beim Engineering eigneten. Ein Bruchmechanikversuch ist auch heute noch 20 bis 40 mal teuerer als ein Kerbschlagbiegeversuch. Auch die FEM Berechnung mit rissbehafteten Sturkturen war und ist relativ aufwändig. Meist zu aufwändig für den Engineering Alltag, sodass diese Arbeit von Spezialisten in Ergänzung zur normalen Bemessung durchgeführt wird.

 

Vor diesem Hintergrund und der rückläufigen Entwicklung im Nuklear- und Off-Shore Bereich wäre die Entwickllung der Bruchmechanik in den 90er Jahren wohl zum Ende gekommen, wenn nicht im Rahmen nationaler und europäischer Forschungsförderung die Ertüchtigung der Bruchmechanik für alle Bereiche von Schweißkonstruktionen vorangetrieben worden wäre.

 

Schließlich gelang es durch Entwicklung des Master-Curve-Konzeptes (hier sind vor allem die Arbeiten von Kim Wallin aus Finnland hervorzuheben), die bis dahin ungelöste Problematik teurer Kennwerteermittlung zu lösen und die bruchmechanischen Werkzeuge für die Stahlsortenwahl zur Vermeidung von Sprödbruch im Stahlbau (EN1993) und bei Druckbehältern (EN13445) und Rohren (EN13480) anzuwenden. Der Trick liegt darin, dass die bruchmechanische Risszähigkeit mit der in technischen Lieferbedingungen von Stahl festgeschriebenen T27J Temperatur aus dem Kerbschlagbiegeversuch korrreliert ist.

 

Heute ist die Situation so, dass viele Einzelanwendungen bekannt sind, vor allem im Bereich des Stahlbaus und der Druckbehälter, aber auch der Sanierung und Lebensdauerverlängerung. Neue Anwendungsbereiche kommen laufend durch die Einführung neuer Technologien wie der Windkraft, durch neue hochfeste Stähle durch dickwandige Bauteile und durch zunehmende Tieftemperaturanwendungen in einer globalisierten Welt hinzu.

 

Hinsichtlich der praktischen Anwendung sind schließlich Regelwerke verfügbar, die auf die gemeinsame Arbeit europäischer Forscher Anfang 2000er Jahre (FITNET) zurückgehen.