Stefan Luckhaus

Stefan Luckhaus

Stefan Luckhaus ist Informatiker mit mehr als 35 Jahren Berufserfahrung. Seit 1981 ist er in der Softwareentwicklung tätig und schloss 1988 sein Informatikstudium in Frankfurt als Dipl.-Ing. (FH) ab. Seit 1998 ist er Mitarbeiter der PASS Consulting Group. Dort war er anfangs als Entwickler tätig. Später leitete er Entwicklungsprojekte, die ihn in die USA, Singapur, Indien und einige europäische Länder führten. Heute ist Stefan Luckhaus für das Competence Center Project Governance verantwortlich, das die Verfahrenstechnik zur Softwareentwicklung der gesamten PASS Gruppe bereitstellt. Im Branchenverband BITKOM ist er u.a. Vorsitzender des Arbeitskreises Qualitätsmanagement. Stefan Luckhaus ist Autor mehrerer Fachbücher.

Alle Artikel von Stefan Luckhaus:

Wie viel Agilität ist gut für die Softwareentwicklung?

Time to Production: Wie viel Agilität ist gut für die Softwareentwicklung?

Agile Methoden können helfen, die Produktivität und Qualität der Prozesse wie auch der entwickelten Software zu erhöhen. Eine Betrachtung der Erfolgskriterien.

Produktivität ist eine wichtige Kennzahl in der Softwareentwicklung. Sie bestimmt, welchen Softwareumfang eine Organisation unter Einhaltung bestimmter Qualitätskriterien mit einem bestimmten Aufwand erstellen kann. Über unsere Erfahrungen mit ihrer Messung und Optimierung haben wir schon mehrere Beiträge veröffentlicht. Eine hohe Produktivität in der Softwareentwicklung alleine sagt jedoch noch nichts darüber aus, wie schnell ein neues Feature einer Anwendung in Produktion für die Anwender nutzbar ist – die sogenannte Time to Production. Damit beschäftigt sich meine neue Beitragsserie. Weiterlesen 

Proaktiv anstatt reaktiv: Bausteine für ein effizientes IT-Sicherheitsmanagement

4 zentrale Bausteine für mehr IT-Sicherheit

Risiken reduzieren: IT-Sicherheit ist für Unternehmen heute ein entscheidendes Element in der Gesamtstrategie. Ich zeige Ihnen, welche zentralen Bausteine berücksichtigt werden sollten und wie Tools beim Risikomanagement unterstützen können. 

Der Einsatz von Informationstechnologie eröffnet Gefährdungsquellen – diese lassen sich durch geeignete Maßnahmen jedoch eindämmen. Heute stehen vor allem vier Bausteine im Blickpunkt: die Softwareentwicklung, technische Schutzmaßnahmen, Mitarbeiterschulungen und das Risikomanagement.

Weiterlesen 

Produktiver Durchblick: Monitoring in der Softwareentwicklung

Produktiver Durchblick: Monitoring in der Softwareentwicklung

In der Softwareentwicklung kann eine punktuelle Messung der Produktivität sehr trügerisch sein. Valide Aussagen erfordern die Betrachtung über einen längeren Zeitraum.

In einem meiner vorhergehenden Beiträge habe ich beschrieben, wie das bei PASS seit mehreren Jahren eingesetzte Managementmodell funktioniert. Nochmals kurz zusammengefasst: Es basiert auf drei Leistungskennzahlen (Produktivität, Kosten und Qualität) und den zugehörigen Messmethoden. Weiterlesen 

In der Softwareentwicklung ist jeder Fehler eine Chance

In der Softwareentwicklung ist jeder Fehler eine Chance

Durch die zyklische Wiederholung von Messungen, Auswertungen und Optimierungen kann in der Softwareentwicklung eine zielgerichtete Verbesserung der Produktivität und Qualität erreicht werden. Die Fehleranalyse ist dabei ein wesentlicher Bestandteil.

Bei der Bearbeitung eines Fehlers steht naturgemäß seine Behebung im Vordergrund, um die dadurch verursachte Einschränkung des Anwenders bei der Nutzung des Systems zu beseitigen. In vielen Fällen zwingen vereinbarte Reaktions- oder Fehlerbehebungszeiten zu einer schnellen Fokussierung auf eine Lösung, auch wenn es sich dabei nur um eine Umgehungslösung handelt, die das Auftreten des Fehlers nicht nachhaltig verhindert. Weiterlesen 

Produktive Softwareentwicklung erfordert ein Managementmodell

Produktive Softwareentwicklung erfordert ein Managementmodell

Wie kann die Produktivität und Qualität in der Softwareentwicklung effektiv und nachhaltig gesteuert werden? Ein Kennzahlen-basiertes Managementmodell als Antwort. 

In meinem letzten Beitrag „3 Hebel für mehr Produktivität in der Softwareentwicklung“ habe ich anhand von Erfahrungswerten aufgezeigt, welche Auswirkungen industrielle Methoden wie Standardisierung und Automatisierung auf die Produktivität haben. Dabei strebt Softwareentwicklung mit industriellen Mitteln keine „Massenproduktion“ gleichartiger Produkte an, sondern ermöglicht im Gegenteil durch eine kleinteilige Standardisierung fachlicher und technischer Komponenten einen hohen Grad an Individualisierung. Weiterlesen 

3 Hebel für mehr Produktivität in der Softwareentwicklung

3 Hebel für mehr Produktivität in der Softwareentwicklung

Kosten runter – Qualität rauf: Produktivität in der Softwareentwicklung ist ein Dreiklang aus Entwicklungsstandards, Automatisierung und Wiederverwendung. 

Bereits 2014 habe ich aufgezeigt, wie durch die Wiederverwendung möglichst kleinteiliger fachlicher und technischer Komponenten Optimierungspotenziale gehoben werden können. Als Beispiel diente damals die Entwicklung eines Travel Management Systems – hier wurden insgesamt 2.286 Personentage eingespart. Weiterlesen 

Neues Buch: Produktivitätssteigerung in der Softwareentwicklung

Neues Buch: Produktivitätssteigerung in der Softwareentwicklung – Teil 2

Aus der Praxis für die Praxis: Heute präsentiere ich Ihnen den zweiten Teil meiner Buchreihe „Produktivitätssteigerung in der Softwareentwicklung“. Im Fokus stehen die Messung, Auswertung und Optimierung der Kennzahlen Produktivität, Kosten und Qualität.

Während im ersten Teil praktische Erfahrungen mit verschiedenen Messmethoden beleuchtet werden, beschreibt mein zweites Buch unter dem Titel „Managementmodell, Aufwandsermittlung und KPI-basierte Verbesserung“ ein auf Leistungskennzahlen basierendes Managementmodell. Weiterlesen 

Produktivitätssteigerung in der Softwareentwicklung – eine Buchvorstellung

Produktivitätssteigerung in der Softwareentwicklung – eine Buchvorstellung

Komplexe Anforderungen, kürzer werdende Entwicklungszeiten und steigender Kostendruck – das Thema Produktivität gewinnt in der Softwareentwicklung zunehmend an Bedeutung. Ausgangspunkt für mein Buchprojekt „Produktivitäts- und Leistungsmessung – Messbarkeit und Messmethoden“.

Als Leiter des Competence Centers Project Governance verantworte ich bei PASS die Verfahrenstechnik zur Softwareentwicklung. Weiterlesen 

Software Engineering in Start-ups: Top oder Flop?

Software Engineering in Start-ups – Chaos und Bugs statt Struktur und Qualität? Zu diesem Thema lud der Arbeitskreis Quality Management des Bitkom Mitte April nach Potsdam ein. Das Ziel war ein Austausch zwischen etablierten Unternehmen der ITK-Branche und Start-ups.

Dabei ging es insbesondere um die Frage, wie chaotisch Start-ups Software entwickeln und welchen Stellenwert Qualitätsmanagement für sie hat. Der örtliche Rahmen war dem Thema angemessen: das Hasso-Plattner-Institut für Softwaresystemtechnik (HPI), das schon zahlreiche Gründungen in der IT-Branche unterstützt hat. Weiterlesen 

Aufwandsschätzung: Von der Kristallkugel zur DIP-Methode

Methoden zur Aufwandsschätzung müssen auch ohne Expertenwissen schnell einsetzbar sein, damit Entwicklungsprojekte zuverlässig geplant und gesteuert werden können.  

In einem Entwicklungsprojekt kürzlich in Aschaffenburg:

Für die Planung der Teamstärke, die zur Entwicklung eines neuen Release bis zu einem mit dem Kunden verbindlich vereinbarten Termin notwendig ist, wird eine Aufwandsschätzung benötigt. Ein Kollege entscheidet sich für eine Expertenschätzung. Weiterlesen 

Safe Harbor 2.0: Ein neu aufgelegter Kompromiss

Nach Safe Harbor: Ein „Privatsphäre-Schild“ soll europäische Daten jenseits des Atlantiks schützen.

Nachdem ich letzte Woche noch gefragt hatte: „Nach Safe Harbor: Wo bleibt die versprochene Rechtssicherheit?“ ist das für Ende Januar erwartete Folgeabkommen zur Regelung des transatlantischen Datenaustauschs nun zumindest in Sicht. Gestern einigten sich die USA und die EU auf politischer Ebene über den Rahmen eines neuen Abkommens. Weiterlesen 

Nach Safe Harbor: Wo bleibt die versprochene Rechtssicherheit?

Das Safe-Harbor-Vakuum: die bis Ende Januar versprochene Rechtssicherheit lässt auf sich warten, die Zukunft des transatlantischen Datenaustauschs bleibt damit weiter unklar. Lässt die Politik unsere IT-Industrie im Regen stehen?

In den Ländern der Europäischen Gemeinschaft regelt die Datenschutzrichtlinie 95/46/EG den Umgang mit personenbezogenen Daten. Sie gilt als einer der sichersten Datenschutzstandards der Welt und verbietet es, personenbezogene Daten aus Mitgliedsländern in Staaten zu übertragen, deren Datenschutz kein vergleichbares Schutzniveau aufweist. Weiterlesen 

IT-Sicherheit: Sind Gesetze und Standards die Lösung?

Besonders in Deutschland zelebriert man das Zeichnen düsterer, Furcht einflößender Bilder, wenn es um die IT-Sicherheit geht. Der Ruf nach neuen Gesetzen wird laut. Nach einer Behörde, die bereits eingetretene Sicherheitsvorfälle zentral verwalten soll. Nach einer Zwangszertifizierung für Betreiber „Kritischer Infrastrukturen“. Sind wir damit auf dem richtigen Weg?

Ich behaupte: Nein. Wir müssen uns klar machen, dass es sich bei Angreifern auf die IT-Sicherheit meist um Menschen handelt, die gut ausgebildet, kreativ und erfahren sind und ihren Verstand einsetzen. Weiterlesen 

Individueller Standard: Mass Customization in der Softwareentwicklung

Industrialisierung vs. Individualisierung = Massen vs. Einzelfertigung – eine Gleichung, die ihre Gültigkeit heute weitgehend verloren hat. Sowohl in der Industrie als auch in der Softwareentwicklung gehört die Zukunft der individualisierten Massenfertigung (Mass Customization).

Lange Zeit galt: Die Massenproduktion ermöglicht eine optimale Ausnutzung von Betriebsmitteln und damit höhere Stückzahlen, kürzere Lieferzeiten und einen geringeren Produktpreis als die Einzelfertigung. Weiterlesen 

Automatisierte Messungen: Ansatzpunkte, Vorteile und Grenzen

Automatisierung macht Messungen praxistauglich. Allerdings ist die ermittelte Produktivität teilweise nur eingeschränkt vergleichbar.

Regelmäßige Umfangsmessungen sind in der Softwareentwicklung unumgänglich. Sie ermöglichen Aussagen über den Zuwachs des funktionalen Umfangs einer Anwendung und damit über die Weiterentwicklungsproduktivität für jedes Release/Inkrement. Weiterlesen 

Zeit für eine neue Umfangsmetrik: die PASS Data-Interaction-Point-Methode

Methoden für die Messung des funktionalen Umfangs einer Software gibt es viele, in der Praxis des kennzahlenbasierten IT-Managements einsetzbar sind aus meiner Sicht wenige. Mein Favorit: die PASS Data-Interaction-Point-Methode.

Die Data-Interaction-Point-Methode ist eine funktionsorientierte Umfangsmetrik, ähnlich der Function-Point-Analyse und der COSMIC-Methode. Weiterlesen 

Eine neue Messmethoden-Generation: COSMIC

Die Function-Point-Analyse ist weit verbreitet. Der Nachteil: Unschärfen bei einigen Anwendungstypen. Einer ihrer Nachfolger: die COSMIC-Methode. Doch hält diese wirklich was sie verspricht? 

Die COSMIC-Methode, 2003 als ISO/IEC 19761-Standard anerkannt, ist eine Weiterentwicklung der Function-Point-Methode und betrachtet die funktionalen Systemanforderungen an ein zu bewertendes Softwareprodukt aus Nutzersicht. Weiterlesen 

Ist die Function-Point-Methode noch aktuell?

Die bekannteste Methode zur Analyse des funktionalen Umfangs einer Software ist die Function-Point-Analyse. Der Vorteil: Sie ist frei von Schätzungen – es wird ausschließlich gezählt und alle Kriterien für die Punktwerte sind klar definiert. Das heißt, sie ist sowohl objektiv als auch zuverlässig und valide. Aber ist sie auch genau?

Die Function-Point-Methode orientiert sich an den Anwendungsfällen eines Systems und zählt Elementarprozesse, mit denen Daten über die Systemgrenzen hinweg ein- oder ausgegeben werden, sowie damit in Zusammenhang stehende Datenstrukturen in internen und externen Datenbeständen.
Weiterlesen 

Glauben ist gut – wissen ist besser: Methoden zur Messung des Softwareumfangs

Eine zukunfts- und wettbewerbsfähige Softwareentwicklung ist ohne regelmäßige Produktivitätsmessungen nicht möglich – so der Tenor meines letzten Beitrags. Doch wie lässt sich der Umfang einer Software messen?

Nur wer den Output seines Systems kennt, kann die Entwicklungsproduktivität messen und dadurch zuverlässige Aufwandsaussagen für künftige Projekte treffen. Weiterlesen