Methodenportfolio

Direkt zu:Evolutionäre AlgorithmenNeuronale NetzeMensch-Maschine-SystemPAAG / HAZOPEreignisbaumanalyseQuantitative RisikoanalyseFuzzy-Logik   Fehlerbaumanalyse    Zuverlässigkeitsprognosemodell (ZPM)    Test- und Prüfplanung   Risikosimulation   Monte-Carlo-Simulation (MCS)   Weibull-Analyse


>  Unter diesem Link finden Sie unseren Onepager zum Thema Risikosimulation


Evolutionäre Algorithmen

Evolutionäre Algorithmen (EA) sind Optimierungsverfahren, welche sich angelehnt an die natürliche Evolution einer gesuchten Lösung annähern. In jeder Iteration werden anhand einer Zielfunktion die besten Lösungen bewertet und selektiert. Für die folgende Iteration werden die bestehenden Lösungen rekombiniert sowie mutiert, wodurch sich die Nähe zum Begriff Evolution begründet.

 

Evolutionäre Algorithmen sind insbesondere dann von Nutzen, wenn das Optimierungsproblem sehr komplex und die mathematische Beschreibung (Modell) sowie die Lösung der Fragestellung (z.B. mittels numerischer Verfahren) aufwendig sind. Typische Anwendungsfälle der Evolutionären Algorithmen sind z.B. Parameterschätzung (z.B. Anpassung mehrparametrige Weibull-Funktion), Systemdesign (z.B. Gewicht Kabelbaum, Temperaturbelastung Steuergerät, Turbulenzbelastung innerhalb eines Windparks).

 

Ausgewählte Referenzen:

  • Weibull-Analyse unter Berücksichtigung eines Teilpopulationsmodells.
  • Zuverlässigkeitsprognose im Bereich der automobilen Telekommunikation.
  • Optimierung und vage Daten im Entwicklungsprozess.

Was wir Ihnen bieten:

  • Sie konnten mit herkömmlichen Methoden kein zufriedenstellendes Ergebnis erzielen, numerische Verfahren lieferten keine brauchbaren Lösungen?

Wir bieten Ihnen die mathematische Beschreibung und EA-basierte Lösungen Ihrer individuellen Fragestellungen – sprechen Sie uns an, wir helfen Ihnen gerne.


Neuronale Netze

Künstliche Neuronale Netze (KNN) dienen der Modellbildung und –lösung. Sie sind in der Lage, abstrakte Strukturen zu generalisieren und Muster auch bei unvollständigen oder verrauschten Daten zu erkennen. Das eigentliche Modell ist als Black-Box anzusehen, innerhalb welcher das Modell von den Eingangsparametern bis zur Lösung über künstliche Neuronen und deren Verknüpfung abgebildet wird, wodurch sich der Begriff des Neuronalen Netzes begründet.

Neuronale Netze

 

Neuronale Netze

Abbildung: Neuronale Netze

Künstliche Neuronale Netze sind insbesondere dann von Nutzen, wenn die Fragestellung sehr komplex und die mathematische Beschreibung (Modell) sowie die Lösung der Fragestellung praktisch nicht möglich sind (mangelnde Kenntnis über die Einflussgrößen und die funktionalen Zusammenhänge). Typische Anwendungsfälle der KNN sind z.B. Parameterschätzung (z.B. Anpassung mehrparametrige Weibull-Funktion), Lebensdauerprognose (z.B. unter Berücksichtigung klimatischer Einflussgrößen) bis hin zur Prognose von Aktienkursen.

 

Ausgewählte Referenzen:

  • Lebensdauerprognose unter Berücksichtigung wechselnder klimatischer Bedingungen.
  • Neuronale Parameterschätzung für die Anwendung von Ausfalldaten.
  • Neuro-Fuzzy-Zuverlässigkeitsoptimierungsmethode bezüglich Lebenszykluskosten.
  • Optimierung und vage Daten im Entwicklungsprozess.

Was wir Ihnen bieten:

  • Sie konnten mit herkömmlichen Methoden kein zufriedenstellendes Ergebnis erzielen, Daten und Grundlagen zur Modellbildung lagen nicht vor?

 

Wir bieten Ihnen die mathematische Beschreibung und KNN-basierte Lösungen Ihrer individuellen Fragestellungen – sprechen Sie uns an, wir helfen Ihnen gerne.


Mensch-Maschine-System – Ereignisanalysen

Ereignisanalysen im Bereich Mensch-Maschine-System (MMS) dienen der Ursachen- und Maßnahmenermittlung von Unfällen, welche insbesondere aufgrund des Zusammenspiels der Subsysteme Individuum, Team, Organisation, Organisationsumwelt und Technik sowie aus deren sequentieller Verknüpfung und Interaktion entstehen (siehe auch VDI 4006, DIN EN 60300-3-1). Im Fokus der Ereignisanalysen steht insbesondere der Human-Factor mit seinen Schnittstellen zur Organisation und Technik.

 

MMS – Ereignisanalysen eignen sich in erster Linie zur Untersuchung und Rekonstruktion von schwerwiegenden Ereignissen (z.B. Arbeitsunfälle, Fehlentscheidung, Fehlbuchung) – anhand der Ergebnisse lassen sich Maßnahmen ableiten, die das Zusammenspiel der Subsysteme Individuum, Team, Organisation, Organisationsumwelt und Technik berücksichtigen.

 

Ausgewählte Referenzen:

  • Entwicklung eines prototypischen Werkzeuges zur quantitativen Prognose der menschlichen Handlungszuverlässigkeit in der manuellen Montage.

 

Was wir Ihnen bieten:

  • Sie haben mit prozessualen Schwierigkeiten in den Bereichen und Schnittstellen Mensch-Technik-Organisation zu kämpfen, in jüngster Vergangenheit ereigneten sich z.B. Arbeitsunfälle?

Wir helfen Ihnen die Schnittstellen zu verstehen und erarbeiten Lösungskonzepte zur Behebung der prozessualen Schwierigkeiten – sprechen Sie uns an, wir helfen Ihnen gerne.


PAAG / HAZOP

Das PAAG-Verfahren (engl. HAZOP, Hazard and Operability) ist ein systematisches Vorgehen (induktiv) zur Ermittlung von Gefährdungen, um den jeweiligen Ursachen und Auswirkungen auf den Grund zu gehen und geeignete Gegenmaßnahmen zu erarbeiten (siehe auch DIN EN 60300-3-1). Dabei steht PAAG für Prognose, Auffinden der Ursache, Abschätzung der Auswirkungen und Gegenmaßnahmen. Das PAAG Verfahren ist vom Grundgedanken her mit der FMEA vergleichbar, nutzt jedoch im Gegensatz zur FMEA definierte Leitworte (z.B. nein, mehr, weniger, teilweise …), um Abweichungen von der Sollfunktion der betrachteten Einheit zu ermitteln.

HAZOP Verfahren

Abbildung: HAZOP Verfahren

Das PAAG-Verfahren eignet sich daher besonders zur Gefährdungsanalyse in der Prozessindustrie, ist aber dennoch auf alle Bereiche der Technik anwendbar. Der Nutzen des Verfahrens liegt in der frühzeitigen Erkennung von Abweichungen, Gefährdungen und Schwachstellen sowie der Dokumentation des Produktentwicklungs- bzw. Prozessplanungsstandes (Produktwissen allgemein).

 

Ausgewählte Referenzen:

  • Erstellung des Zuverlässigkeitskonzeptes für eine Stromversorgung einer sicherheitskritischen Infrastruktur
  • Gefahren- und Sicherheitsanalyse zur Bewertung des Gefahrenpotentials und zur Erhöhung der prozessbezogenen Betriebssicherheit von Brennstoffzellen – Heizgeräten (BZH)

Was wir Ihnen bieten:

  • Im Rahmen einer Neuentwicklung oder Betriebsänderung ist eine Gefährdungsanalyse erforderlich?
  • In jüngster Vergangenheit ereigneten sich z.B. Störungen/Störfälle?

Wir bieten Ihnen die erforderlichen Werkzeuge, unterstützen Sie bei der Anwendung und Erstellung der erforderlichen Dokumente – sprechen Sie uns an, wir helfen Ihnen gerne.


Ereignisbaumanalyse

Die Ereignisbaumanalyse (EBA) (engl.: Event Tree Analysis – ETA, siehe auch DIN EN 60300-3-1) ist geeignet, Ereignisketten ausgehend von einem Startereignis (Initial Event) abzubilden (induktiv). Sie wird eingesetzt, wenn es darum geht, alle möglichen Pfade von Folgeereignissen (z.B. Störfallablaufszenarien), ihre Reihenfolge und die wahrscheinlichste Folge abzubilden und zu untersuchen.

 

Die Ereignisbaumanalyse wird in der Praxis häufig mit der Fehlerbaumanalyse (FBA) kombiniert, z.B. im Rahmen einer Quantitativen Risikoanalyse (QRA). Hierbei werden die im System enthaltenen Sicherheitsebenen (Layer of Protection) im Ereignisbaum abgebildet. Die Wahrscheinlichkeiten, mit welchen im Ereignisbaum den Ereignisabläufen (z.B. Versagen einer Sicherheitsebene) gefolgt wird, können z.B. auf Basis von Methoden wie der Fehlerbaumanalyse oder der Monte-Carlo-Simulation (MCS) ermittelt werden.

 

Ausgewählte Referenzen:

  • Erstellung des Zuverlässigkeitskonzeptes für eine Stromversorgung einer sicherheitskritischen Infrastruktur
  • Gefahren- und Sicherheitsanalyse zur Bewertung des Gefahrenpotentials und zur Erhöhung der prozessbezogenen Betriebssicherheit von Brennstoffzellen – Heizgeräten (BZH)

Was wir Ihnen bieten:

  • Ihr System verfügt über mehrere Sicherheitsebenen (Layer of Protection), welche unter Verwendung von Methoden wie FMEA oder Fehlerbaumanalyse in Gänze schwer abzubilden sind?
  • Im Rahmen einer standortbezogenen Gefährdungs- & Risikobeurteilung sind aufgrund des Gefahrenpotentials Störfälle zu untersuchen?
  • In jüngster Vergangenheit kam es z.B. zu Störungen/Störfällen?

Wir bieten Ihnen die erforderlichen Werkzeuge, unterstützen Sie bei der Anwendung und Erstellung der erforderlichen Dokumente – sprechen Sie uns an, wir helfen Ihnen gerne.


Quantitative Risikoanalyse (QRA)

Die Quantitative Risikoanalyse (QRA) (engl.: Quantitative Risk Assessment) dient der Risikobeurteilung technischer Systeme unter Berücksichtigung der Ereignis- und Expositionsabläufe. Im Rahmen einer Quantitativen Risikoanalyse werden Gefährdungen ermittelt, bewertet, die zugehörigen Ereignisabläufe (Szenarien) unter Berücksichtigung der technischen Sicherheitsebenen abgebildet sowie die resultierenden Expositionsabläufe auf Basis der Standortumgebung modelliert, analysiert und bewertet.

 

Die Quantitative Risikoanalyse wird in der Praxis besonders zur Analyse und Bewertung von Störfallabläufen mit einem hohen Gefahrenpotential herangezogen. Zur Durchführung der Schritte Gefahrenermittlung und -bewertung, Ereignis- und Expositionsabläufe sowie Risikobewertung werden Methoden wie FMEA, HAZOP, Ereignisbaumanalyse, Fehlerbaumanalyse und Monte-Carlo-Simulation genutzt und verknüpft.

 

Ausgewählte Referenzen:

  • Bewertung externer Gefahrenquellen (Einwirkungsarten von außen: Explosionsdruckwelle, Flugzeugabsturz) auf den Betrieb kerntechnischer Anlagen.
  • Veröffentlichungen zur Modellierung, Analyse und Bewertung der externen Gefahrenquelle Explosionsdruckwelle.

Was wir Ihnen bieten:

  • Im Rahmen einer Betriebsgenehmigung, Neuentwicklung oder Betriebsänderung ist eine Quantitative Risikoanalyse mit Gefährdungs- und Risikobeurteilung erforderlich?
  • In jüngster Vergangenheit kam es z.B. zu Störungen/Störfällen?

Wir bieten Ihnen die erforderlichen Werkzeuge, wir erstellen die Quantitative Risikoanalyse und unterstützen Sie bei der Erstellung der erforderlichen Dokumente – sprechen Sie uns an, wir helfen Ihnen gerne.


Fuzzy-Logik

Die Fuzzy-Logik ermöglicht es, dass in der Organisation oder bei Experten vorhandene subjektive Wissen nutzbar zu machen und in bestehende Ansätze der Sicherheits- und Zuverlässigkeitsanalyse zu integrieren. Ein weiterer Vorteil ist, dass die Unschärfe und Subjektivität der Eingangsdaten bei den Analyseergebnissen erkennbar bleibt.

Fuzzy-Logik

Abbildung: Fuzzy-Logik

Die Fuzzy-Logik hat sich im Rahmen der Sicherheits- und Zuverlässigkeitsanalyse bei der Integration von unscharfen Daten (z.B. Ausfallraten) in Kombination mit Werkzeugen wie der FMECA oder dem Fehlerbaum bewährt. Hierbei erfolgt zunächst eine Fuzzifizierung der unscharfen Daten (Umsetzung in ein gegebenes Gerüst der unscharfen Mathematik). Anschließend wird das Ergebnis gemäß der Rechenregeln des übergeordneten Werkzeugs (FMECA, Fehlerbaum, etc.) generiert, die folgende Defuzzifizierung des Ergebnisses dient der Umsetzung des unscharfen Ergebnisses in einen konkreten Wert.

 

Ausgewählte Referenzen:

  • Fuzzy-FMEA zur Gefährdungsanalyse eines Druck-Tank-Systems.
  • Fuzzy-Fehlerbaumanalyse für ein Kfz-Sensorik-System.
  • Methodischer Vergleich der Booleschen- und Fuzzy-Fehlerbaumanalyse am Beispiel eines Flugsteuerungssystems.

Was wir Ihnen bieten:

  • Ihr System verfügt über Unsicherheiten, eine Ermittlung konkreter Eingangsgrößen (z.B. Auftretenswahrscheinlichkeiten, Entdeckungswahrscheinlichkeiten, Ausfallraten) ist nicht möglich?
  • Herangezogene Experten sind uneins bei der Ermittlung der Eingangsgrößen (z.B. Auftretenswahrscheinlichkeiten, Entdeckungswahrscheinlichkeiten, Ausfallraten)?

Wir bieten Ihnen die erforderlichen Werkzeuge, unterstützen Sie bei der Anwendung und Erstellung der erforderlichen Dokumente – sprechen Sie uns an, wir helfen Ihnen gerne.


Fehlerbaumanalyse

Die Fehlerbaumanalyse (engl.: Fault Tree Analysis, FTA), nach DIN EN 61025 auch Fehlzustandsbaumanalyse, kann zur Sicherheits- und Zuverlässigkeitsanalyse für Anlagen und Systeme aller Art, einschließlich gemeinsam verursachter Ausfälle (Common Mode Failure) und menschlicher Fehler (Human Error), herangezogen werden. Es handelt sich hierbei um eine, auf der Grundlage der Booleschen Algebra basierende, deduktive Analyse. Es werden die logischen Verknüpfungen von Komponenten- oder Teilsystemausfällen ermittelt, die zu einem unerwünschten Ereignis (Top Event) führen. Die Ergebnisse der Analysen ermöglichen eine Systembeurteilung im Hinblick auf Zuverlässigkeit, Verfügbarkeit und Sicherheit.

Fehlerbaumanalyse Beispiel Bremssystem

Abbildung: Fehlerbaumanalyse Beispiel Bremssystem

Die nachfolgende Abbildung zeigt die Darstellung eines Serien- sowie eines Parallelsystems als Zuverlässigkeitsblockdiagramm und als Fehlerbaum. Beim Parallelsystem müssen Basisereignis 1 UND Basisereignis 2 auftreten, damit das Top-Event eintritt. Das Top-Event beim Seriensystem wird hingegen durch Eintreten von Basisereignis 1 ODER Basisereignis 2 eingenommen.

Fehlerbaumanalyse Grundlagen

Abbildung: Fehlerbaumanalyse Grundlagen

Die Ziele der Fehlerbaumanalyse sind im Einzelnen:

  • Die systematische Identifizierung aller möglichen Ausfallursachen und Ausfallkombinationen, die zu einem unerwünschten Ereignis führen.
  • Die Ermittlung von Zuverlässigkeitskenngrößen (z.B. Eintrittshäufigkeiten der Ausfallkombinationen, Eintrittshäufigkeiten des unerwünschten Ereignisses oder Nichtverfügbarkeit des Systems bei Anforderungen).
  • Die Erstellung der graphischen Darstellung in einer Art Baumstruktur (logisches Schaltnetz) mit Eingangs- und Ausgangsvariablen.
  • Durch probabilistische Zuverlässigkeits- und Sicherheitsvorhersagen verschiedene Entwurfsvorschläge zu vergleichen, Schwachstellen aufzuzeigen, geforderte Zuverlässigkeits- und Sicherheitsanforderungen analytisch nachzuweisen.

Die Fehlerbaumanalyse eignet sich besonders gut zur zuverlässigkeits- und sicherheitsrelevanten Darstellung und Analyse großer komplexer Systeme, die in der Regel aus tausenden von Minimalschnitten (dies sind Ereigniskombinationen, die zum unerwünschten Top-Ereignis führen) bestehen können. Die Erstellung und Auswertung erfolgt dementsprechend rechnergestützt.
Weitere Erkenntnisse zum während der FBA betrachteten System können über Importanzkenngrößen erlangt werden. Mit diesen Bewertungsgrößen kann der Einfluss einzelner Basisereignisse (oftmals Komponenten) auf die Zuverlässigkeit bzw. Sicherheit ermittelt werden, um dadurch beispielsweise Fragestellungen hinsichtlich einer Systemoptimierung, Schwachstellenanalyse, Fehlererkennung oder Wartungsstrategien zu objektivieren und quantifizieren.
Die Mitarbeiter des IQZ setzen qualitative und quantitative Fehlerbaumanalysen unter Anderem im Bereich der Funktionalen Sicherheit ein, um in einem sehr frühen Stadium des Produktentwicklungsprozesses erste Abschätzungen über die Wahrscheinlichkeit des Auftretens eines definierten Top-Ereignisses zu erhalten. Durch die softwaregestützte Erstellung und Berechnung können unterschiedliche Systemkonfigurationen miteinander verglichen werden, um ein Optimum an Sicherheit, Zuverlässigkeit und Wirtschaftlichkeit zu erhalten.
Als Basis kann das IQZ auf alle gängigen Ausfallratendatenbanken zugreifen. Zudem ermöglicht der Einsatz des Wuppertaler Zuverlässigkeitsprognosemodells die Einbeziehung kundenbezogener Ausfallraten.


Zuverlässigkeitsprognosemodell (ZPM)

Viele Fragestellungen im Qualitätswesen – besonders im Warranty Management – bauen direkt auf Zuverlässigkeitsprognosen auf, so z.B. die Bestimmung der zu erwartenden Ausfälle im Feldeinsatz oder der zu erwartenden Garantiekosten. Aber auch die Ermittlung von Endbevorratungs- und Ersatzteilmengen, die Bewertung verschiedener Konzepte, Konstruktionen und Technologien über lange Einsatzzeiten sowie die Abschätzung möglicher Risiken gehören dazu. Nachfolgende Erläuterungen beziehen sich auf den Bereich Automotive, sind aber grundsätzlich auf alle Bereiche, in denen technische Produkte gefertigt und verwendet werden, übertragbar.

Erprobungsreihen, Dauerläufe und zeitraffende Tests dienen der grundsätzlichen Absicherung von Kfz-Komponenten bzgl. ihrer Funktionalität und Robustheit. Aufgrund der nur geringen Stichprobenumfänge können sie aber die oben genannten Fragen nicht beantworten, zudem auch die Korrelation zwischen Versuch und realem Feldeinsatz unbekannt ist. Dagegen spiegeln Felddaten die realen Einsatzbedingungen und alle relevanten Belastungsfaktoren wider, weshalb sie eine gute Basis zur Beschreibung des Ausfallverhaltens im Feld sind. Für größere Serienlieferungen liegen in der Regel genügend Ausfälle vor, wodurch eine gute statistische Aussagekraft gewährleistet ist. Allerdings erfolgt die vollständige Erfassung der Feldausfälle nur während der Garantiezeit, weshalb die Daten zeitlich zensiert und somit nicht vollständig sind.

Die Zeitdifferenz zwischen Zulassung des Fahrzeuges und Ausfall der interessierenden Komponente ist nicht geeignet, um deren Belastung zu erfassen. Hierzu wäre die reine Betriebszeit notwendig, die aber in der Regel nicht erfasst wird und somit unbekannt ist. Als adäquater Ersatz hierfür kann die bis zum Ausfall gefahrene Strecke dienen, was durch umfangreiche Untersuchungen belegt ist. Allerdings ist das Fahrverhalten während der auf die Garantiezeit  beschränkten Beobachtung sehr unterschiedlich (von wenigen Tausend km bis über 100 Tkm). Dies muss folglich bei Zuverlässigkeitsaussagen berücksichtigt werden.

Nachfolgend ist der Ablauf einer Zuverlässigkeitsprognose dargestellt.

Zuverlässigkeitsprognosemodell

Abbildung: Zuverlässigkeitsprognosemodell

Zuverlässigkeitsprognosemodelle bieten u.a. die folgenden Nutzungsmöglichkeiten:

Warranty Management

  • Kalkulation von zukünftigen Garantie- und Gewährleistungskosten
  • Risikomanagement bei Garantiezeiterweiterung
  • Kalkulation von Serienersatzbedarf oder Endbevorratungsmengen im Ersatzteilmanagement
  • Aufdeckung von Garantiebetrug
  • Möglichkeit der Lieferantenbewertung/-kontrolle
  • Statistische Auswertung des Zulassungsverzugs (Optimierung Supply-Chain-Management)
  • Statistische Auswertung des Meldeverzugs (Optimierung Informationsfluss Zulieferer-Kunde oder intern)

Funktionale Sicherheit (ISO 26262, IEC 61508)

  • Erstellung eigener Ausfallraten unter Berücksichtigung der spezifischen Belastung Ihrer Komponenten
  • Möglichkeit zum Nachweis der Betriebsbewährtheit – Proven-in-Use gemäß ISO 26262
  • Nachweis der Normenkonformität

Informationen Forschung & Entwicklung

  • Bewertung von Systemmodifikationen
  • Hilfe bei der Komponentenauswahl
  • Einsatz betriebsbewährter Komponenten
    Optimierung der Test- und Prüfplanung (tatsächliche Belastung im Feldeinsatz)
  • Feedback für Forschung und Entwicklung

Allgemeine Vorteile

  • Statistische Auswertung der firmeneigenen Felddaten mittels bewährtem Modell
  • Jahrelange Anwendung bei namhaften OEM und Zulieferern
  • Sowohl reine Datenauswertung als auch Interpretation durch Experten möglich
  • Kontinuierliche Weiterentwicklung (Stand der Wissenschaft)

Eine Zusammenfassung zum Wuppertaler Zuverlässigkeitsprognosemodell können Sie hier herunterladen:

 

Version Deutsch:

IQZ_Reliablity-Prognosis-Modell

Version Deutsch-Englisch:

IQZ_Reliablity-Prognosis-Modell

Version Englisch:

IQZ_Reliability-Prognosis-Modell


Test- und Prüfplanung

Das Ziel der Test- und Prüfplanung ist der Nachweis, dass eine geforderte Eigenschaft über ein festgelegtes Merkmal (i.d.R. Zeit, Zyklen, Betätigungen) den Anforderungen genügt. In der Zuverlässigkeitstechnik wird hierbei meist geprüft, ob die minimal erforderliche Zuverlässigkeit (Überlebenswahrscheinlichkeit) einer Stichprobe (auch: Los, Kollektiv), die aus einer Grundgesamtheit stammt, über einen definierten Zeitraum nachgewiesen werden kann.

Die gesamten Verfahren beruhen auf der so genannten Hypothesenprüfung, bei der überprüft wird, ob die Stichprobe die Nullhypothese erfüllt. Ist dies der Fall, wird die Nullhypothese angenommen. Bei einer Ablehnung der Nullhypothese wird die Alternativhypothese angenommen.

 

Testverfahren

Die eigentlichen Testverfahren können sehr aufwendig und teuer werden. Daher gilt es zuerst, einen sinnvollen und damit aussagefähigen Test zu bestimmen. Denn auch ein günstiger oder schneller Test ist nutzlos, wenn die Aussagen, die anschließend getroffen werden sollen, mit den Testergebnissen abgeleitet werden können.

Nach der Bestimmung eines geeigneten Tests interessieren insbesondere die benötigte Testzeit und die auftretenden Kosten.

 

Im Folgenden werden einige Tests kurz mit den Testabläufen sowie den Vor- und Nachteilen beschrieben.


 

Success-Run-Test („Erfolgslauf“)

 

Bei diesem Verfahren wird die Stichprobe über einen Zeitraum getestet, um eine festgelegte Mindestzuverlässigkeit nachzuweisen. Wie der Name schon sagt, müssen alle getesteten Teile den Test ohne Ausfall „überleben“.

Ein Vorteil ist hierbei, dass der Test sehr einfach ist. Auch das Ergebnis ist eindeutig und unterliegt keiner subjektiven Bewertung, solange ein Ausfall sauber definiert ist. Des Weiteren kann, sobald das generelle Ausfallverhalten (Früh-/Verschleißausfall) bekannt ist, eine Optimierung zwischen Testdauer und Prüflingsanzahl vorgenommen werden. So gilt z.B. bei Frühausfallverhalten generell, dass eher mehr Teile getestet werden und dafür die Testzeit verkürzt werden kann. Bei Verschleißverhalten gilt der umgekehrte Sachverhalt.

Von Nachteil ist vor allem, dass über den Verlauf der Ausfallwahrscheinlichkeit keine Aussagen aufgrund der Testergebnisse möglich sind. Besonders bei einem Ausfall einer Komponente ist dies ungünstig, da nicht nur der Test negativ ausfällt, sondern darüber hinaus nur wenige zusätzliche Informationen gewonnen werden können. Insbesondere bei verschleißbehafteten Komponenten und damit langen Testzeiten kann dieser Test somit sehr nachteilig sein.

Success-Run

Abbildung: Success-Run


 

Sudden-Death-Test

 

Bei diesem Test wird die Stichprobe in mehrere Klassen unterteilt, die jeweils die gleiche Prüflingsanzahl aufweisen. Jede Klasse wird nun solange getestet, bis einer der Prüflinge ausfällt. Die intakten Prüflinge werden nicht weiter getestet. Anschließend wird über eine Ranggrößenverteilung das Ausfallverhalten bestimmt, da es sich bei den Ausfalldaten um einen Spezialfall einer Zensierung handelt.

Vorteilhaft bei diesem Test ist die Aufteilung in Klassen, so dass auch auf kleineren Prüfständen oftmals eine Durchführung möglich ist. Auch die Bestimmung der Ausfallfunktion ist besonders hilfreich, da somit sehr viel Wissen über die Komponenten generiert wird.

Nachteilig kann dieser Test jedoch bei Komponenten mit verschleißbehaftetem Ausfallverhalten sein, da u.U. die Testdauern in den einzelnen Klassen sehr hoch sein können. Auch der höhere Aufwand zur Testplanung wird oft als Nachteil gesehen, was jedoch häufig bei langen Testzeiten zu vernachlässigen ist.


 

Lebensdauertest

 

Bei den Lebensdauertests werden die Prüflinge über einen zuvor festgelegten Zeitraum getestet, wobei eine gewisse Anzahl an Ausfällen erlaubt ist. Die ausgefallenen Prüflinge werden nicht ersetzt. Anschließend kann mit den ermittelten Ausfallzeitpunkten und unter Festlegung eines Konfidenzintervalls die Mindestzuverlässigkeit bestimmt werden. Im Grunde ist der Success-Run-Test ein Spezialfall des Lebensdauertests.

Vorteile dieses Tests bestehen darin, dass Prüflinge ausfallen dürfen und des Weiteren eine einfache Ermittlung von Parametern der Weibull-Verteilung möglich ist, die in der Zuverlässigkeitstechnik gerne verwendet werden.

Aber auch bei diesem Verfahren besteht die Möglichkeit einer sehr langen Testdauer.


 

End-of-Life-Test (EOL)

 

Bei diesem Test wird das Prüflos solange getestet, bis alle Komponenten ausgefallen sind. Anschließend können die Ausfallzeiten genutzt werden, um das Ausfallverhalten zu bestimmen. Dieser Test ist ein Spezialfall des Sudden-Death-Tests, bei dem jede Klasse nur einen Prüfling hat und wird i.d.R. nur zur Robustheitsabsicherung verwendet.

Der Vorteil dieses Verfahrens gegenüber anderen ist, dass über das Ausfallverhalten der Stichprobe vollständiges Wissen vorliegt. Sinnvoll nutzbar ist dies aber nur bei einer entsprechenden Anzahl an Prüflingen.

Nachteilig ist die in der Regel sehr lange Prüfdauer.

Bei der Test- und Prüfplanung lassen sich zur Testzeitverkürzung weitere Methoden hinzufügen, wie z.B. die Laststeigerung durch Temperatur, Feuchtigkeit etc.


Risikosimulation

Die Architektur moderner Systeme und Komponenten zeichnet sich durch eine stetig zunehmende Komplexität und eine wachsende Vernetzung unterschiedlicher Systeme aus. Dies führt zu einem Zuwachs an Funktionen dieser Systeme, stellt aber parallel auch deutlich höhere Anforderungen an deren Zuverlässigkeit.

 

Eine Folge dieser Vernetzungen zeigt sich in einer erschwerten Zuverlässigkeitsanalyse mittels der klassischen mathematischen und stochastischen Methoden, welche aus unübersichtlichen mathematischen Ausdrücken, die nicht oder nur schwer lösbar sind, komplexen technischen Abhängigkeiten oder schlicht aufgrund einer zu hohen Anzahl an Komponenten oder Teilsystemen resultiert.

 

Die Abbildung, Simulation und Analyse dieser komplexen Fragestellungen im technischen und wirtschaftlichen Bereich bilden das Einsatzgebiet der Monte-Carlo-Simulation.

 

Die Monte-Carlo-Simulation ist eine computergestützte Simulationsmethode, die über eine Vielzahl an simulierten Systemdurchläufen auch komplexe Zusammenhänge zuverlässig abbilden und analysieren kann. Dies geschieht über Zufallszahlen, mit denen für jeden Simulationsdurchlauf ein zufälliges Ereignis erzeugt wird. Über eine große Menge an Simulationsdurchläufen wird so ein Schätzer entwickelt der die herkömmliche Zuverlässigkeitsanalyse oder andere analytische Berechnungen ersetzt.

Monte-Carlo-Simulation

Abbildung: Monte-Carlo-Simulation

Die möglichen Anwendungsbereiche der Monte-Carlo-Simulation sind vielseitig und können für eine ganzheitliche System-, Zuverlässigkeits- und Risikoanalyse (technische sowie wirtschaftlich) genutzt werden.

 

Ausgewählte technische Anwendungsbereiche:

  • Klassische Zuverlässigkeits- und Sicherheitsanalysen für (hoch-)komplexe Systeme
  • Funktionale Analysen zur Betrachtung von degradierten Funktionszuständen (Teilsystemausfälle)
  • Einsatz im Bereich der Toleranzrechnung, vor allem für nicht-lineare Toleranzen und Toleranzketten
  • Simulation von hochzuverlässigen System mit extrem niedriger Fehlerwahrscheinlichkeit
  • Einsatz in frühen Forschungs- und Entwicklungsphasen für die keine Felddatenanalyse durchgeführt werden kann.
  • Ganzheitlicher Einsatz im Bereich der Produktentwicklung zur Validierung und Absicherung von Entwicklungsprozessen

 

Ausgewählte wirtschaftliche Anwendungsbereiche:

  • Analyse von technischen Auswirkungen auf wirtschaftliche Faktoren
  • Gezielte Risikoanalyse unter Berücksichtigung vieler dynamischer Risikofaktoren und  -objekte
  • Unterstützung in der Vertragsgestaltung (besonders Garantie- und Gewährleistungsbestimmungen)
  • Vergleich unterschiedlicher Vertragsstrategien anhand konkreter Simulationen
  • Analyse der Verfügbarkeit von technischen oder organisatorischen Einheiten und darauf aufbauend Entwicklung einer Optimierungsstrategie

Das IQZ bietet Ihnen aufgrund seiner langjährigen Erfahrung im Bereich der Simulationsmethoden sowohl die methodische als auch angewandte Kompetenz zur Konzeptionierung, Durchführung, Implementierung und Betreuung von Monte-Carlo-Simulationen in vielen Anwendungsgebieten.


Monte-Carlo-Simulation (MCS)

Die Monte-Carlo-Simulation (MCS), benannt nach dem monegassischen Stadtteil Monte Carlo mit seiner berühmten Spielbank, ist eine Simulationsmethode zur Modellierung von Zufallsgrößen und deren Verteilungsfunktionen mit dem Ziel, bestimmte Integrale, gewöhnliche und partielle Differentialgleichungen etc. durch stochastische Modellbildung hinreichend genau zu lösen. Unter Anwendung der MCS können demnach komplexe Gleichungssysteme stochastischer oder deterministischer Natur, die analytisch nicht oder nur aufwendig lösbar sind, im mathematischen Kontext numerisch („spielerisch“) gelöst werden. Dabei bildet des „Gesetz der großen Zahlen“ die mathematische Begründung.

 

Heutzutage gilt die Monte-Carlo-Simulation als einzige praktikable Methode zur Berechnung komplexer mehrdimensionaler Gleichungssysteme, die analytisch nicht lösbar sind oder einen sehr hohen Rechenaufwand erfordern. Die MCS wird dementsprechend neben dem physikalischen Bereich u.a. in der Spieltheorie und mathematischen Ökonomie, der Theorie der Nachrichtenübertragung und nicht zuletzt in der Bedienungstheorie und Zuverlässigkeitstheorie bei der Analyse und Betrachtung von

  • komplexen Fehlerbäumen,
  • Abhängigkeiten von Zuständen und Zustandswechseln,
  • beliebigen Verteilungsfunktionen und Zeitabhängigkeiten,
  • flexiblen Wartungs- und Reparaturstrategien und
  • dynamischen Einflussgrößen („Dynamische Zuverlässigkeitstheorie“)
    erfolgreich eingesetzt.

 

Ein aktueller Forschungsgegenstand ist die so genannte „Dynamische Zuverlässigkeitstheorie“. Die hier zugrunde gelegten komplexen Gleichungen der Systemtransporttheorie zur Beschreibung dynamischer Systemänderungen lassen sich in der Regel nur mittels MCS erfolgreich auswerten. Die MCS ermöglicht es, diesbezüglich hinreichend genau reale Bedingungen, wie stochastische Abhängigkeiten, Zeitabhängigkeiten, Alterungsprozesse und physikalische Einflussgrößen, ohne Einschränkung zu modellieren.

Allgemein lässt sich feststellen, dass die MCS im Bereich der Industrie immer mehr an Bedeutung gewinnt, da aufwendige und teure Feldversuche ganz oder teilweise durch Computersimulationen ersetzt werden können. Dies hat u.a. den Vorteil, dass Material- und Prüfkosten für Feld- und Laborversuche eingespart werden können, die Untersuchungsbedingungen identisch und die Ergebnisse reproduzierbar sind. Zudem können die Ergebnisse leicht mit denen anderer Simulationen verglichen und analysiert werden.

Die Umsetzung der Monte-Carlo-Simulation wird durch leistungsfähigere Computersysteme – auch bei sehr hohen Simulationsdurchläufen – stetig verbessert. Insofern sind auch die Ergebnisse, die mit der Monte-Carlo-Simulation erzielt werden können, immer genauer.


Weibull-Analyse

Die Weibull-Analyse ist eine weit verbreitete Methode zur Beurteilung von technischen Lebensdauern und wird im Bereich der Zuverlässigkeitstechnik zur Analyse unterschiedlichster Problematiken herangezogen. Unter Verwendung der Weibull-Verteilung lassen sich die drei gängigen Ausfallverhalten

 

I. Frühausfälle
II. Zufallsausfälle
III. Verschleißausfälle

 

zielgerichtet abbilden und beschreiben.

Weibull-Analyse-Badewannenkurve

Abbildung: Weibull Analyse „Badewannenkurve“

Die Weibull-Analyse wird in der Praxis besonders zur Analyse und Bewertung von Feldreklamationen sowie zur statistischen Erprobungsabsicherung (bspw. Nachweis von Betriebsfestigkeiten) herangezogen, um anhand der Analyseergebnisse zielgerichtete Maßnahmen abzuleiten. In beiden Anwendungsfällen ist das Ziel die Beschreibung der vorliegenden Datenbasis und ggfs. die Prognostizierung zukünftiger Auftretenswahrscheinlichkeiten unter Berücksichtigung der zugehörigen statischen Konfidenz.

Weibull-Analyse-doppellogarithmisch-normal

Abbildung: Irrtumswahrscheinlichkeit; links: doppellogarithmische Darstellung, rechts: normale Darstellung

Industrielle Anwendungsfälle:

  • Prognose zukünftiger Ausfallwahrscheinlichkeiten in der Feldbeobachtung > Ermittlung Anzahl an Schadteilen, Serienersatzbedarf, Endbevorratungsmengen, Garantie- und Kulanzkosten, …
  • Statistische Erprobungsabsicherung(en) > Nutzung im Zuverlässigkeitswachstum, Auslegung Success-Run-Test, Sudden-Death-Test,…
  • Ermittlung von Kennwerten aus Sicht der Betriebsfestigkeit
  • Analyse lebensdauerbeeinflussender Lastmerkmale (Spannung, Zyklen, Kilometer, …)
  • Ermittlung von Ausfallwahrscheinlichkeiten zu einem zugeordneten Lastzeitpunkt
  • Graphische Visualisierungsmöglichkeit als Ergänzung zu nicht-parametrischen Tests (z.B. Signifikanztests)

 

Was wir Ihnen bieten:
Wir bieten Ihnen die erforderlichen Werkzeuge, analysieren Ihre Daten und unterstützen Sie bei der Erstellung der benötigten Auswertungen inklusive der Dokumentation(en) passend zu Ihrem Anwendungsfall – sprechen Sie uns an, wir helfen Ihnen gerne.