Willkommen zur Embedded Testing 2024

28. August 2023: Die Webseite zur Embedded Testing ist fertig gestellt und erste Gespräche mit potentiellen Speakern, Sponsoren und Teilnehmenden laufen. Der Call for Papers ist eröffnet und läuft noch bis zum 12. November 2023.

08. November 2023: In vier Tagen endet der Call for Papers zur Embedded Testing

Evently

News zur Embedded Testing 2024

Simply enter your keyword and we will help you find what you need.

What are you looking for?

Good things happen when you narrow your focus
Welcome to Conference

Write us on info@evently.com

Follow Us

Image Alt

Agenda Tag 1

Embedded Testing 2024

Dienstag, 27. Februar 2024

09:00 bis 10:00, Foyer

Begrüßungskaffee und Registrierung

10:00 bis 10:15, Kopernikus 2 und 3

Konferenzeröffnung

10:15 bis 11:00, Kopernikus 2 und 3

Eröffnungskeynote: Dr. Andreas Wilhelm: Wie schaffen wir durchgängige Konsistenz? Ein Plädoyer für Software Intelligence

mehr...

Wie schaffen wir durchgängige Konsistenz? Ein Plädoyer für Software Intelligence

Woher wissen wir eigentlich, ob unsere kritischen Anforderungen konsistent implementiert und getestet sind?

Insbesondere für die Entwicklung sicherheitskritischer Systeme ist eine vollständige Traceability zwischen Anforderungen, Architektur, Code und den zugehörigen Tests obligatorisch. Die entsprechenden Standards gehen jedoch von einem wasserfallartigen Entwicklungsprozess aus, bei dem diese Artefakte nacheinander erstellt werden und anschließend unverändert bleiben. Einen solchen Prozess gibt es in innovativen Projekten praktisch nicht. Vielmehr ändern sich Artefakte im Sinne einer agilen Vorgehensweise iterativ.

Um in einem solchen agilen Szenario sicherzustellen, dass alle Artefakte konsistent zueinander bleiben, müssen wir sie bei jeder Änderung wechselseitig abgleichen. Nur so können wir fortlaufend auf Abweichungen reagieren und die Entwicklung gezielt steuern. Dabei muss der Abgleich natürlich so leichtgewichtig erfolgen, dass er unseren Entwicklungsprozess nicht ausbremst.

In meiner Keynote zeige ich, wie verschiedene Qualitätssicherungsansätze ineinandergreifen können, um leichtgewichtige Traceability zu ermöglichen. Dabei stelle ich die Grundideen hinter den jeweiligen Ansätzen, sowie Forschungsergebnisse und zentrale Erfahrungen aus dem praktischen Einsatz vor.

Referent: Dr. Andreas Wilhelm

Dr. Andreas Wilhelm ist Experte für Softwarequalität bei der CQSE GmbH. Er beschäftigt sich seit 13 Jahren in Forschung, Entwicklung und Praxis mit Qualitätsanalysen und hat in dieser Zeit viele Teams bei der Einführung und im Einsatz von Analysewerkzeugen begleitet.

11:00 bis 11:30, Foyer und Einstein 1 und 2

Kaffeepause und Besuch der Ausstellung

11:30 bis 12:15, Raum: Kopernikus 3

Neil Langmead: Prozess Verbesserungen, Test Automation und DevOps in ASPICE SWE.4 und SWE.5 Niveaus

11:30 bis 12:15, Raum: Kopernikus 2

Martin Bober: Von Gummibändern, Eis und Feuer: Geschichten aus der HIL-Prüfstandsentwicklung

mehr...

Prozess Verbesserungen, Test Automation und DevOps in ASPICE SWE.4 und SWE.5 Niveaus

Prozess Verbesserungen, Test Automation und DevOps in ASPICE SWE.4 und SWE.5 Niveaus. Der Vortrag zeigt echte Beispiele von der Praxis, wie man Komplianz zu Norms schneller erreichen kann. Software Testwerkzeuge werden zusammen mit DevOps Pipelines benutzt um eine schnelle sogannante „NULL Release“ zu kriegen – die Zeit die man braucht, wenn 1 Code Zeile sich ändert, und das Projekt muss neu geprüft und zertifiziert werden. Eine neue Strategie und Methoden für Software Change Analyse wird demonstriert, und eine verbesserte Software Build Method für C und C++ wird gezeigt.

Referent: Neil Langmead

Neil hat seit 20 Jahren in der Embedded Software Industrie gearbeitet. Seine Schwerpunkte sind das Testen von Embedded Zielsystemen, die Erreichung von Code Abdeckung auf Target, und Prozess Automation für Funktionale Sicherheits Projekte (z.B. ASPICE, FDA). Er kümmert sich jetzt über Automation für SWE.4 und SWE.5 bei ASPICE. Er ist C/C++ Expert, und hat auch viele Erfahrung mit DevOps, GitOps und Software Architektur.

mehr...

Von Gummibändern, Eis und Feuer: Geschichten aus der HIL-Prüfstandsentwicklung

Konfrontiert man Entwickler:innen mit der Aufgabe, einen Hardware-In-The-Loop (HIL) Prüfstand zu realisieren, kann man zwei typische Vorgehensweisen beobachten:

Der Typ „McGyver“ schnappt sich einen Raspberry Pi, verbindet ihn mit ein paar Evalboards und ist fertig bevor der Typ „George R. R. Martin“ überhaupt sein Konzept skizziert hat.

Einige Zeit später kann sich die planvolle Architekt:in entspannt zurücklehnen, während die Bastler:innen hektisch den Wackelkontakt im Prüfstand suchen, die Deadline für den Test näher rückt und der Freigabetermin wackelt.

In diesem Vortrag zeige ich anhand von Beispielen aus unserem Arbeitsalltag, dass beide Vorgehen ihre Berechtigung haben.

Der Vortrag spricht Entwickler:innen und Manager:innen gleichermaßen an, denn ich berichte schonungslos über unsere Erfahrungen in Konzeption, Aufbau und Betrieb von HIL-Prüfständen. Im Idealfall nimmt man wertvolle Tipps mit, kennt ein paar Fehler die man nicht wiederholen muss und bringt – durch Fragen an mich – noch mehr Informationen in die Runde.

Referent: Martin Bober

Mein Einstiegsjob nach meinem Elektrotechnik-Studium war als Software-Entwickler bei einem Automobilzulieferer.

Nach einem kurzen Intermezzo als Android-Entwickler habe ich über mehrere Jahre als Entwicklungsingenieur bei einem Dienstleister in Zulieferunternehmen der Automobilbranche eine große Bandbreite an mehr oder weniger gut funktionierenden Entwicklungs- und Testprozessen kennen gelernt.

Nach einem Jahrzehnt in der Automobilbranche dachte ich dann, es ist Zeit für einen Tapetenwechsel und bin zu tecmata in die Prüfmittelentwicklung gewechselt. Dort betreue ich jetzt die Weiter- und Neuentwicklung von Prüfmitteln im Functional Safety Umfeld.

12:25 bis 13:10, Raum: Kopernikus 3

12:25 bis 13:10, Raum: Kopernikus 2

Daniel Penning: Open Loop Testing – praktikable HW/SW Integration Tests

Michael Wittner: Security im Variantenwald: Wie die Hyper-Coverage versteckten Code aufdeckt

mehr...

Open Loop Testing – praktikable HW/SW Integration Tests

Der Test von Embedded Firmware ist zu kompliziert. Enorme Ressourcen werden für einen Systemtest aufgewendet, der zu wenige Fehler entdeckt. Für Embedded Firmware ist der korrekte Umgang mit Mikrocontroller Peripherie (GPIO, CAN, …) essentiell. Dazu werden Treiber programmiert. Open Loop Tests können diese Treiber im Detail prüfen.

Open Loop ist ein Begriff aus der Regelungstechnik. In der Regelungstechnik beeinflusst man einen Prozess so, dass ein gewünschter Zustand erreicht wird. Closed-Loop Regler messen kontinuierlich den Ausgang. Aus der Abweichung zwischen Soll- und Ist-Zustand wird ein Stelleingriff berechnet. Open-Loop Regler steuern „blind“ einen Prozess, sie sind also nicht vom aktuellen Systemzustand abhängig. Das vereinfacht die Handhabung.

Embedded Systeme werden üblicherweise in einer Art getestet, die mit Closed-Loop Reglern vergleichbar ist. Mit Open-Loop Prinzipien kann die Komplexität im Testen dramatisch reduziert werden. Tests werden kompakt und verständlich.

Der Vortrag wird zunächst den Stand der Technik im Testen vom Embedded Systemen beschreiben. Dann wird der Zusammenhang mit Closed-Loop Systemen verdeutlicht. Anschließend wird mit Open-Loop Prinzipien eine alternative Herangehensweise entwickelt. Open Loop Tests machen die Hardware-Software Integration Tests in der klassischen Testpyramide praktikabel nutzbar.

Referent: Daniel Penning

Daniel Penning studierte Elektrotechnik und arbeitete in Embedded Projekten in der Industrie- und Sicherheitstechnik. Seine Begeisterung für qualitativ hochwertige Embedded Entwicklung versucht er regelmäßig auf Konferenzen weiterzugeben. Als Geschäftsführer bei embeff unterstützt er Kunden mit einer neuartigen Lösung zum vollautomatischen Test für hardwareabhängigen Mikrocontroller Code.

mehr...

Security im Variantenwald: Wie die Hyper-Coverage versteckten Code aufdeckt

Bei der Zertifizierung sicherheitskritischer Software wird neben umfangreichen und normgerechten Tests aller Varianten eines Source-Codes ein Nachweis für die vollständige Abdeckung dieses Source-Codes verlangt. Bei der kumulierten Hyper-Coverage wird mit gängigen Coverage-Messungen ein Zusammenhang zwischen Code-Varianten und gemessener Code-Coverage auf der Basis des originalen Source-Codes berechnet. Die natürlichen Grenzen von Coverage-Messungen unterschiedlicher Code-Varianten werden dadurch überbrückt und erlauben eine kumulierte Zusammenfassung auf Quelldateiebene.

Jeglicher Code in einer Programmquelle wird dabei vollständig erfasst, selbst wenn dieser nicht durch Code-Varianten abgedeckt wird. Durch einen Abgleich der ermittelten Coverage-Werte und der Code-Varianten mit der Quelldatei werden versteckte Funktionen und Programmblöcke in der Quelldatei aufgedeckt, was die Security deutlich erhöht.

Referent: Michael Wittner

Dipl.-Inform. Michael Wittner ist seit vielen Jahren im Bereich Software-Entwicklung und Test tätig. Nach dem Studium der Informatik an der TU Berlin arbeitete er als wissenschaftlicher Mitarbeiter der Daimler AG an der Entwicklung von Testmethoden und Testwerkzeugen. Seit 1997 ist er geschäftsführender Gesellschafter der Razorcat Development GmbH, dem Hersteller des Unit-Testtools TESSY und CTE sowie des Testmanagement-Tools ITE und der Testspezifikationssprache CCDL.

13:10 bis 14:10, Raum: Foyer und Einstein 1 und 2: 

Mittagspause und Besuch der Ausstellung

14:10 bis 14:55, Raum: Kopernikus 3

14:10 bis 14:55, Raum: Kopernikus 2

14:10 bis 15:50, Raum: Kopernikus 1

Hermann Rauth: Optimieren von Embedded Software Tests auf der Zielhardware

Martin Heininger & August Weiß: Requirements als Basis für automatische, KI basierte Testfallerstellung!

Thomas Schütz: 100 Minuten Intensiv Coaching: Wie kann ich mein Embedded System früh und effizient testen?

mehr...

Optimieren von Embedded Software Tests auf der Zielhardware

In der Regel wird Embedded Software auf einem Host, PC geschrieben und getestet.
Im Idealfall sollten diese Tests noch einmal auf der Zielplattform durchgeführt werden denn die Zielhardware verhält sich anders als der Host. Der Test ist daher mit einigen Schwierigkeiten verbunden, die zu großen Verzögerungen im Entwicklungsprozess führen können. Zum Beispiel wird beim Unit Testing auf dem Target häufiges flashen von der Testumgebung und den Testdaten notwendig was zu Zeitverlust und Gefahr besteht den Microcontroller zu beschädigen. Allzu oft werden diese Tests deshalb nur teilweise oder überhaupt nicht durchgeführt. Leider sind diese nicht immer vermeidlich. Insbesondere bei Sicherheitskritischen Anwendungen sind sie sogar von den verschiedenen Sicherheitsstandards vorgeschrieben.

Es gibt jedoch zahlreiche Möglichkeiten der Optimierung, auf die in diesem Vortrag näher eingegangen wird.

Referent: Hermann Rauth

Hermann Rauth ist Field Application Engineer bei der Vector Informatik GmbH. In dieser Funktion ist er verantwortlich für Kundenbetreuung, Präsentationen, Schulungen und technischen Support. Er schloss 1997 sein Studium der Elektrotechnik mit der Fachrichtung Nachrichtentechnik an der RWTH Aachen ab. In den letzten 20 Jahren arbeitete er als Entwickler, System-/Anforderungsingenieur, Customer Product Engineer und Voice Engineer bei führenden Telekommunikationsunternehmen wie Bosch, Avaya und anderen führenden Telekommunikationsunternehmen.

mehr...

Requirements als Basis für automatische, KI basierte Testfallerstellung!

Die automatisierte Ableitung von Testfällen aus textuellen Requirements ist ein viel diskutiertes Thema sowohl im Testing als auch im Requirements Engineering. Bisherige Studien zu diesem Thema haben allerdings eher ernüchternde Ergebnisse gezeigt.
Dieser Vortrag stellt die Ergebnisse eines neuen Ansatzes vor, der Anforderungstexte mit Hilfe von KI analysiert und so testrelevante Informationen extrahiert. Dieser Ansatz entspringt einer Masterarbeit, welche von Vector Informatik GmbH betreut wurde. Basis der Arbeit waren Requirements, welche aus einem Luftfahrt-Projekt exportiert wurden. Diese Requirements müssen Normen, wie die DO-178C, erfüllen und sind daher semi-formal spezifiziert. Diese Eigenschaft hat das Erstellen eines Datensatzes ermöglicht, auf dem die KI trainiert wurde.
Im weiteren Vorgehen können aus den Requirements gesammelten Attribute zusammen mit den restlichen Texten weiterverarbeitet werden, um das große Ziel der automatisierten Testfallgenerierung zu erreichen. Bis dahin können die Zwischenergebnisse verwendet werden, um Test- und Requirements-Ingenieure zu unterstützen. Der Vortrag wird die praxisrelevanz der Ergebnisse diskutieren sowie die Herausforderungen schildern, auf die man während der Arbeit gestoßen ist.

Referenten: Martin Heininger und August Weiß

Dipl.-Ing. (FH) Martin Heininger, ist seit Anfang 2018 Inhaber der HEICON – Global Engineering GmbH, einem Beratungsunternehmen für sicherheitsrelvante, software-intensive embedded Systeme.
Zuvor war er 12 Jahren als freiberuflicher Berater tätig. Er verfügt über 20 Jahre Erfahrung im Bereich Entwicklungsprozessen und Methoden. Besonderer Schwerpunkte bilden das Requirement Engineering und Test Engineering.

Der Autor berät und betreut Projekte in der Luftfahrt, der Automatisierungs- und Bahntechnik sowie in der Automobilindustrie.

Herr August Weiß hat im Sommer 2023 sein Masterstudium in Wirtschaftsinformatik an der Technischen Universität München abgeschlossen und ist seitdem als Beratender System-Ingenieur bei HEICON – Global Engineering GmbH tätig. In seiner Masterarbeit, welche von Vector Informatik GmbH betreut wurde, untersuchte er die Fähigkeiten von KI-Netzwerken im Bezug auf das Auswerten von natürlichsprachigen Requirementstexten. Zuvor hat er im Sommer 2020 seinen Bachelor in Informatik an der Universität Innsbruck abgeschlossen, an der er ebenfalls eine im KI-Bereich abgesiedelte Abschlussarbeit verfasste.

mehr...

100-Minuten Intensiv Coaching: Wie kann ich mein Embedded System früh und effizient testen?

Wie kann ich mein Embedded System schon während der Entwicklung testen?
Welche Aspekte sollte man testen?
Wie priorisiere ich meine Tests?
Wie teste ich möglichst viel, mit möglichst wenig Aufwand?
Wie weiß ich nach jeder Änderung sofort, ob mein System immer noch funktioniert?
Wie kann man strukturiert und wiederholbar testen und nicht einfach „ausprobieren“?

Nach einer kurzen Einführung zu den genannten Fragen gehen wir in die Diskussion und ins Coaching.
Bringen Sie Ihre Fragen oder Anforderungen mit und wir arbeiten gemeinsam an möglichen Lösungen für Ihr Problem.
Wir können flexibel passende Methoden vorstellen und diskutieren.

Referent: Thomas Schütz

Thomas Schütz hat einen Abschluss in Luft- und Raumfahrttechnik der Universität München und ist Geschäftsführer und Berater von Protos Software, die er 1997 gegründet hat. Er war als Projektleiter oder Architekt in vielen Projekten mit dem Fokus auf modellbasierte Entwicklung und Test für komplexe Embedded Systeme tätig. Darüber hinaus ist er Product Owner der PROTOS miniHIL Testing Toolchain und Projektleiter des Eclipse Projekts eTrice.

15:05 bis 15:50, Raum: Kopernikus 3

15:05 bis 15:50, Raum: Kopernikus 2

seit 14:10 bis 15:50, Raum: Kopernikus 1

Stefan Trippler: Unit Testing – können wir darauf verzichten?

Michael Vollath: Speicher-Stack-Tests und Worst-Case-Execution-Time-Tests eines Steuergeräts

Thomas Schütz: 100 Minuten Intensiv Coaching: Wie kann ich mein Embedded System früh und effizient testen?

mehr...

Unit Testing – können wir darauf verzichten?

Vor allem in der Medizintechnik haben wir es mit einem stark regulierten Umfeld zu tun, in dem Unit Tests zur Sicherstellung der korrekten Funktion von Software gefordert werden. Die Implementierung von Unit Tests ist dabei insbesondere bei Bestandssoftware alles andere als trivial.
Dieser Vortrag behandelt die Frage, ob und wann Unit Tests sinnvoll oder sogar notwendig sind. Es wird auch besprochen, wie Unit Tests als wesentlicher Bestandteil der Softwareentwicklung in den Entwicklungsprozess integriert werden können und dazu beitragen, die Software-Architektur und -Qualität entscheidend zu verbessern, Software-Fehler zu vermeiden bzw. frühzeitig zu erkennen und so Entwicklungszeit und -kosten gespart werden können.
Anhand des Embedded-Test-Frameworks „Unity“ wird beispielhaft erklärt, wie auf einem Target Unit Tests durchgeführt werden können und wie sich dies in eine MDR-konforme Dokumentation einfügt.

Referent: Stefan Trippler

Über 20 Jahre Erfahrung mit der Entwicklung von Embedded Systems in der der Luft- und Raumfahrt, im Automotive-Sektor und in der Medizintechnik. Seit 5 Jahren Software Architekt in der Medizintechnik, zuständig für MDR-konforme Dokumentation, Requirements- und Releasemanagement sowie Risikoanalyse bei Bestands- und Neuprodukten für minimal-invasive Operationen.

mehr...

Speicher-Stack-Tests und Worst-Case-Execution-Time-Tests eines Steuergeräts

Im Laufe der Jahre hat die wachsende Komplexität von Steuergeräten zu einer Zunahme der Anforderungen gemäß ISO26262 geführt, die innerhalb immer kürzerer Projektzeiträume bewältigt werden müssen. In solchen hochsicherheitskritischen Systemen ist es von entscheidender Bedeutung, dass Speichertypen und Stack sicher zugewiesen werden und dass die tatsächliche Laufzeit der Softwarekomponenten sowie die Ausführung ihrer Tasks präzise eingehalten werden. Angesichts des rasanten Tempos in heutigen Projekten steigt die Nachfrage nach automatisierten Testverfahren. Unser Ansatz in diesem Projekt umfasst die Implementierung von automatisierten und teilautomatisierten Tests, um Entwicklerteams effizienteres und schnelleres Feedback zu ermöglichen.

In meinem Vortrag werde ich detaillierte Einblicke in unsere Methoden zur Durchführung von Speichertests unter Verwendung von Excel sowie in die Anwendung statischer Stack-Analysen und statischer WCET-Analysen mit dem Tool AbsInt bieten.

Referent: Michael Vollath

Michael Vollath ist IT-Qualitätssicherungsingenieur bei der Sepp.med GmbH. Er studierte Medizintechnik an der Technischen Hochschule Nürnberg und ist seit sieben Jahren für die Sepp.med GmbH in den Branchen Automobil und Medizintechnik im Softwaretest tätig.

mehr...

100-Minuten Intensiv Coaching: Wie kann ich mein Embedded System früh und effizient testen?

Wie kann ich mein Embedded System schon während der Entwicklung testen?
Welche Aspekte sollte man testen?
Wie priorisiere ich meine Tests?
Wie teste ich möglichst viel, mit möglichst wenig Aufwand?
Wie weiß ich nach jeder Änderung sofort, ob mein System immer noch funktioniert?
Wie kann man strukturiert und wiederholbar testen und nicht einfach „ausprobieren“?

Nach einer kurzen Einführung zu den genannten Fragen gehen wir in die Diskussion und ins Coaching.
Bringen Sie Ihre Fragen oder Anforderungen mit und wir arbeiten gemeinsam an möglichen Lösungen für Ihr Problem.
Wir können flexibel passende Methoden vorstellen und diskutieren.

Referent: Thomas Schütz

Thomas Schütz hat einen Abschluss in Luft- und Raumfahrttechnik der Universität München und ist Geschäftsführer und Berater von Protos Software, die er 1997 gegründet hat. Er war als Projektleiter oder Architekt in vielen Projekten mit dem Fokus auf modellbasierte Entwicklung und Test für komplexe Embedded Systeme tätig. Darüber hinaus ist er Product Owner der PROTOS miniHIL Testing Toolchain und Projektleiter des Eclipse Projekts eTrice.

15:50 bis 16:20, Raum: Foyer und Einstein 1 und 2

Kaffeepause und Besuch der Ausstellung

16:20 bis 17:05, Raum: Kopernikus 3

16:20 bis 17:05, Raum: Kopernikus 2

16:20 bis 18:00, Raum: Kopernikus 1

Dr. Julia Scherrer: Test as you fly – fly as you test: Wie gutes Testmanagement zu besseren Medizinprodukten führt

Michael Frommberger und Manfred Felkl:

Aktive Middleware – Die Lösung für Embedded Testing

Dr. Jörg Herter und Ben Posner: 100 Minuten Kurzworkshop: Signalflussanalyse

mehr...

Test as you fly – fly as you test: Wie gutes Testmanagement zu besseren Medizinprodukten führt

Längst wird der Verifikation ein viel höherer Stellenwert in der Systementwicklung zugesprochen, als es noch vor ein paar Jahren der Fall war. Nicht erst Negativ-Beispiele wie der missglückte Start der Ariane 5 aufgrund eines Softwarefehlers, dem teuersten aller Zeiten, haben dazu beigetragen, dass sich frühes Testen im Engineering etabliert hat. In der Medizintechnik steht die Sicherheit des Patienten oder Anwenders an erster Stelle, daher gibt es hier keine Kompromisse hinsichtlich der Zuverlässigkeit der Software. Doch wie gestaltet man den Verifikationsprozess sinnvoll, effektiv und effizient? Wie lässt sich das richtige Maß finden, damit sich Qualität, Zeitaufwand und Kosten die Waage halten? Und was haben Software-Anforderungen mit der Verifikation zu tun? Warum ist es sinnvoll, dass der/die Testmanager:in ein Auge auf die Software-System-Anforderungen hat oder diese gar federführend mitgestaltet?

Der Vortrag verrät Antworten auf diese Fragen und nimmt die realen Herausforderungen der Verifikation von medizinischen Systemen im Entwicklungsalltag unter die Lupe. Neben nützlichen Tipps aus der Entwicklungspraxis werden auch die Schlüsselrolle des Testmanagers/der Testmanagerin sowie die Schnittstellen zu allen relevanten Stakeholdern näher beleuchtet.

Referentin: Dr. Julia Scherrer

Dr. Julia Scherrer ist Software-Ingenieurin im Healthcare-Geschäftsbereich der ITK Engineering und hat über zehn Jahre Erfahrung im Bereich Systementwicklung. Hier ist sie Spezialistin für die Verifikation komplexer medizinischer Systeme. Zuvor studierte Frau Scherrer Elektrotechnik und Informationstechnik mit dem Schwerpunkt biomedizinische Technik an der damaligen Universität Karlsruhe (TH). Anschließend promovierte sie am Institut für Biomedizinische Technik und erforschte im Rahmen ihrer Promotion die Wirkung elektromagnetischer Felder auf den menschlichen Körper im Hinblick auf Energiedeposition und Stimulierbarkeit von Nerven und Muskelzellen im niedrigen kHz-Bereich.

mehr...

Aktive Middleware – Die Lösung für Embedded Testing

In den letzten Jahren hat der Funktionsumfang von eingebetteten Systemen, speziell auch im Industrie- und Automobilbereich, stark zugenommen. Es wird erwartet, dass dieser Trend sich auch in Zukunft fortsetzt und neben der bloßen Funktionsvielfalt auch die Interaktion mit der Umwelt immer weiter zunimmt. Zum Projektstartzeitpunkt eines Embedded Systems wird dabei häufig das Testen in den Hintergrund gestellt. Im Projektverlauf werden Anforderungen definiert, welche den verschiedenen Stakeholdern gerecht werden sollen. Meist wird dabei jedoch der Tester als Stakeholder vergessen.
Die Planung eines Hardware in the Loop (HiL)-Testsystems wird daher spät in den Projektalltag integriert. Anforderungen ändern sich ständig und Schnittstellen müssen angepasst werden. Das Testsystem muss alle Schnittstellen und Umgebungsbedingungen des Prüflings bedienen und gleichzeitig die Echtzeitbedingungen einhalten. In vielen Fällen empfiehlt sich dann ein Middleware-basierter Ansatz, um die Testsysteme einfach, effektiv und schnell ändern zu können, wobei die Echtzeitfähigkeit, Portabilität und Flexibilität eine große Rolle spielen. Zum Beispiel können dann Hardwareschnittstellen verschiedener Hersteller aber auch Softwareschnittstellen verschiedener Komponenten / Applikationen (Umgebungsmodell, physikalische Simulation) an die Echtzeitsimulation angebunden werden.

Referenten: MichaelFrommberger und Manfred Felkl

Michael joint iSyst Intelligente Systeme GmbH in 2021 as head of research and development.
He is responsible for HW- and SW-development of components for HiL-test systems as well as their production.
Before, Michael was with the automotive harness supplier LEONI for 15 years.
Michael studied physics at the university of Cologne and the university of Erlangen-Nürnberg.

mehr...

Kurzworkshop: Signalflussanalyse

Viele Automobilhersteller und -zulieferer beschäftigen sich derzeit mit der Thematik, welche Eingabesignale welche Ausgabesignale beeinflussen und welche Funktionen von welchen Eingabesignalen durchlaufen werden. Dies steht im Zusammenhang mit neuen Regulierungen für Abgassteuerungen. Doch auch allgemein sind diese Aspekte von Interesse. Lassen sich diese Fragen zuverlässig beantworten, so kann die Softwarearchitektur auf der Implementierungsebene, also direkt auf dem Quellcode, überprüft werden.
In diesem Workshop zeigen wir, wie man Signalflussanalysen durchführt, um die genannten Fragestellungen zuverlässig und ohne „false negatives“ zu beantworten.
Der Workshop behandelt außerdem weitere Themen wie:
  • Was macht statische Analysen verlässlich?
  • Wie funktioniert eine verlässliche Signalflussanalyse?
  • Was sind die Unterschiede zwischen Testen und statischer Analyse des dynamischen Verhaltens?

Referenten: Dr. Jörg Herter und Ben Posner

Dr. Jörg Herter studierte Informatik an der Universität des Saarlandes und promovierte dort zum Doktor der Ingenieurwissenschaften. Er forschte sowohl an der Universität des Saarlandes als auch der Hochschule für Technik und Wirtschaft des Saarlandes (HTWdS). Sein derzeitiges Arbeitsgebiet umfaßt das Thema funktionale Sicherheit sowie die formale Validierung und Verifikation sicherheitskritischer Software.
Jörg Herter arbeitet als leitender technischer Berater bei AbsInt und hält regelmäßig Vorlesungen über statische Programmanalyse, eingebettete Systeme und Übersetzerbau an der Hochschule für Technik und Wirtschaft des Saarlandes sowie an der Universität Luxemburg. Sie treffen ihn auch immer wieder auf den vielen Messen, Konferenzen und Ausstellungen, auf denen AbsInt jedes Jahr vertreten ist.
Ben Posner studierte Informatik und Computerlinguistik an der Universität des Saarlandes und erhielt 2021 seinen Bachelorabschluss in Computerlinguistik. Seit 2019 ist Ben Posner bei AbsInt GmbH als Software Tester angestellt und von 2021 bis 2022 war er am Lehrstuhl für Computerlinguistik als Forscher tätig.
Seit September 2023 ist er bei AbsInt GmbH als technischer Berater im Bereich der statischen Analyse beschäftigt. Als technischer Berater schult Ben Posner die theoretischen Konzepte der statischen Programmanalyse und abstrakten Interpretation und berät Firmen bei deren konkreten Einsatz.

17:15 bis 18:00, Raum: Kopernikus 3

17:15 bis 18:00, Raum: Kopernikus 2

seit 15:50 bis 17:30, Raum: Kopernikus 1

Royd Lüdtke: Statische Analyse – wer braucht denn sowas?

Frank Poignee: Security Testing

Fortsetzung: Dr. Jörg Herter und Ben Posner: 100 Minuten Kurzworkshop: Signalflussanalyse

mehr...

Statische Analyse – wer braucht denn sowas?

Werkzeuge zur statischen Codeanalyse sind mit höheren Ansprüchen an die Codequalität gewachsen.
Früher lediglich eingesetzt zur syntaktischen und formalen Überprüfung von Quellcode, vermag die automatisierte statische Analyse inzwischen weitreichender zu unterstützen.
In vernetzten Umgebungen rückt z.B. die Forderung nach Sicherheit gegenüber Angriffen Dritter zunehmend in den Fokus. Static Analysis Security Testing (SAST), einbezogen in den Entwicklungsprozess (DevSecOps), kommt dieser Forderung nach.
Darüberhinaus können statische Analysetechniken zur Performanceoptimierung von Applikationen beitragen.
Der Vortrag geht auf verschiedene Einsatzbereiche der automatisierten statischen Analyse ein.

Referent: Royd Lüdtke

Royd Lüdtke leitet bei Verifysoft Technology den Bereich Pre-Sales und Support für statische Codeanalysetools im deutschsprachigen Raum. Er hat umfangreiche Berufserfahrung als Applikationsingenieur und Berater bei einer Vielzahl von Firmen und Institutionen wie New Era Of Networks, Sybase, Rogue Wave Software und dem Fraunhofer Institut. Lüdtke studierte in Dortmund Elektrotechnik und Energietechnik, hält mehrere Patente und ist Autor von Veröffentlichungen im IT-Bereich.

mehr...

Security Testing

Entwicklungsmethoden, die Sicherheitsaspekte durchgängig im gesamten Lebenszyklus einer Software berücksichtigen, liefern einen wichtigen Beitrag zur Reduzierung der Anzahl Schwachstellen und damit zur Verbesserung der Sicherheit von Software.

Eine wesentliche Sicherheitsaktivität stellt dabei das Security Testen dar. Folgend ein Überblick über die hierbei angewendeten Methoden in der Praxis, mit der Sicherheitslücken identifiziert werden, insbesondere die sogenannten „Zero-Day-Vulnerabilities“.

Security Requirements Analysis

  • Identifizierung und Überprüfung exakter Sicherheitsanforderungen.

Threat Modeling

  • (Security by Design) überprüft die Sicherheitsarchitektur der Software und Firmware kritischer IT-Infrastrukturen und Netzwerke.

Static Source Code Analysis

  • (Code Review): Semi-automatisiertes Scannen des Quellcodes zur Identifizierung von Sicherheitslücken wie Race Conditions, Deadlocks, Zeiger- und Speicherverletzungen.

Penetration Testing

  • Dynamische Sicherheitsprüfung mit bekannten Angriffen zur Identifizierung bekannter Sicherheitslücken.

Dynamic Analysis – Fuzzing

  • Dynamische Sicherheitsprüfung – mit erfahrungsgemäß erfolgreichen Angriffsdaten zur Identifizierung bisher nicht-erkannter Sicherheitslücken (Zero-Day-Vulnerabilities).

Referent: Frank Poignee

Der Diplom-Informatiker Frank Poignee ist seit 1997 bei der infoteam SW AG und leitet bis heute zahlreiche Projekte bei Kunden in den Bereichen Industrieautomation, Healthcare und Life Science. Frank ist als zertifizierter TÜV Functional Safety Engineer für Hardware und Software ein sehr gefragter Berater für Funkt. Sicherheit und bei zahlreichen Kunden branchenübergreifend im Einsatz.

Darüber hinaus vertritt er infoteam mit aktiver Mitarbeit in mehreren Gremien und Vereinigungen, darunter in DKE/GAK 914.0.3 Sichere Software. Er ist stellvertretender Fachgruppenleiter in der ASQF Fachgruppe Safety & Security.

mehr...

Kurzworkshop: Signalflussanalyse

Viele Automobilhersteller und -zulieferer beschäftigen sich derzeit mit der Thematik, welche Eingabesignale welche Ausgabesignale beeinflussen und welche Funktionen von welchen Eingabesignalen durchlaufen werden. Dies steht im Zusammenhang mit neuen Regulierungen für Abgassteuerungen. Doch auch allgemein sind diese Aspekte von Interesse. Lassen sich diese Fragen zuverlässig beantworten, so kann die Softwarearchitektur auf der Implementierungsebene, also direkt auf dem Quellcode, überprüft werden.
In diesem Workshop zeigen wir, wie man Signalflussanalysen durchführt, um die genannten Fragestellungen zuverlässig und ohne „false negatives“ zu beantworten.
Der Workshop behandelt außerdem weitere Themen wie:
  • Was macht statische Analysen verlässlich?
  • Wie funktioniert eine verlässliche Signalflussanalyse?
  • Was sind die Unterschiede zwischen Testen und statischer Analyse des dynamischen Verhaltens?

Referenten: Dr. Jörg Herter und Ben Posner

Dr. Jörg Herter studierte Informatik an der Universität des Saarlandes und promovierte dort zum Doktor der Ingenieurwissenschaften. Er forschte sowohl an der Universität des Saarlandes als auch der Hochschule für Technik und Wirtschaft des Saarlandes (HTWdS). Sein derzeitiges Arbeitsgebiet umfaßt das Thema funktionale Sicherheit sowie die formale Validierung und Verifikation sicherheitskritischer Software.
Jörg Herter arbeitet als leitender technischer Berater bei AbsInt und hält regelmäßig Vorlesungen über statische Programmanalyse, eingebettete Systeme und Übersetzerbau an der Hochschule für Technik und Wirtschaft des Saarlandes sowie an der Universität Luxemburg. Sie treffen ihn auch immer wieder auf den vielen Messen, Konferenzen und Ausstellungen, auf denen AbsInt jedes Jahr vertreten ist.
Ben Posner studierte Informatik und Computerlinguistik an der Universität des Saarlandes und erhielt 2021 seinen Bachelorabschluss in Computerlinguistik. Seit 2019 ist Ben Posner bei AbsInt GmbH als Software Tester angestellt und von 2021 bis 2022 war er am Lehrstuhl für Computerlinguistik als Forscher tätig.
Seit September 2023 ist er bei AbsInt GmbH als technischer Berater im Bereich der statischen Analyse beschäftigt. Als technischer Berater schult Ben Posner die theoretischen Konzepte der statischen Programmanalyse und abstrakten Interpretation und berät Firmen bei deren konkreten Einsatz.

18:15 bis 19:00, Raum Kopernikus 3 und 2

Abendkeynote: Lass mich in Ruhe mit deinen Standards – Es ist nicht alles Testen was glänzt, Georg Haupt
mehr...
Lass mich in Ruhe mit deinen Standards – Es ist nicht alles Testen was glänzt

Testen ist nicht gleich Testen.

In der Welt des Testens haben sich unterschiedliche Strömungen herausgebildet. Am weitesten verbreitet in Deutschland ist die typische Standard-Schule (z. B. nach DIN ISO, ISTQB oder auch BBST). Das ist aber nicht überall so. Es gibt eine analytische Schule, die typisch agile Schule, die Quality-Schule und weitere. Wo liegen die Unterschiede? Alle diese Schulen unterscheiden sich in den Grundannahmen sowie den daraus resultierenden Schlussfolgerungen und haben unterschiedliche Kontroversen.

Wir betrachten gemeinsam, welche Schulen es gibt und wie sie sich unterscheiden. Eines ist am Ende wichtig: Alle diese Testschulen haben ihre Daseinsberechtigung und verfolgen unterschiedliche Philosophien.

Wie wäre es, wenn wir uns bei den unterschiedlichen Schulen bedienen?

Referent: Georg Haupt

Als Quality Evangelist lautet mein Motto: „Aus der Praxis für die Praxis!“ Denn als Test- und Qualitäts-Management-Experte blicke ich auf 20 Jahre praktische Erfahrung für sowohl agile als auch klassische Soft- und Hardwaretests zurück. Weitere Schwerpunkte sind für mich: Test-Automatisierung, Test-Analyse sowie Security-Tests. Hierbei liegt mir besonders teamübergreifende und agile Qualitätssicherung am Herzen. Ich lege hohen Wert auf eine ausgewogene Mischung aus manuellen, explorativen und automatisierten Tests. Das Entwickeln und Etablieren von Testmethoden und Prozessen ist für mich langjährige Praxis. Darüber hinaus biete ich Ihnen praktische Erfahrung in der Einführung von teamübergreifenden Test- und Testmanagementwerkzeugen und Prozessen. Privat bin ich ein experimentell verspielter Smart Home-Technikfreak. Und dazu seit über 25 Jahren als DJ, Webradiomoderator und Cineast unterwegs. Aber nichts ist schöner als ein anständiger Wein mit der Familie, entweder bei einem guten Film im Heimkino oder beim Brettspiel.

19:00 bis 23:00, Raum: Foyer und Einstein 1 und 2

Abendveranstaltung in der Ausstellung

Änderungen vorbehalten