Heisenware auf die Ohren

EINFACH KOMPLEX – Der Software- und IT-Podcast

Einfach Komplex ist der Heisenware Podcast, in dem wir IT- und Softwarethemen verständlich und praxisnah aufbereiten. Alle zwei Wochen sprechen wir über die Herausforderungen der Digitalisierung, smarte Lösungen für die Produktion und aktuelle Trends in der Softwareentwicklung. Egal, ob du Laie oder Profi bist – unser Ziel ist es, komplexe Themen einfach zu erklären und dir wertvolle Einblicke und Tipps für deine eigenen Digitalisierungsprojekte zu bieten.

Podcast Cover 2025
spotify badge
apple badge
amazon badge
pocketcasts badge

Entdecke alle Folgen des Heisenware Podcasts

Folge 76

Manuel Haug von Celonis über Process Intelligence & Celonis' Tech Journey

Wir haben Manuel Haug, Field CTO von Celonis, zu Gast. Er hat das rasante Wachstum des Unternehmens in den letzten zehn Jahren begleitet und maßgeblich dazu beigetragen, dass Celonis sich als Marktführer im Bereich Process Mining und Process Intelligence etabliert hat. Manuel gibt uns Einblicke, was Process Intelligence bedeutet, welche Technologien dabei zum Einsatz kommen und wie Celonis durch eine Kombination aus Technologie und Consulting große Potenziale für Kunden erschließt. Wir sprechen über Anwendungsfälle in Großkonzernen und Mittelständlern sowie die technologische Entwicklung von Celonis – von der Entwicklung eigener Datenbanktechnologien, dem Wechsel von On-Premise zur Cloud bis hin zum heutigen Einsatz von KI.

Folge 75

Code Generation: Vom Compiler bis No-Code & KI 

Wir starten gemeinsam in das dritte Jahr unseres Podcasts und blicken zunächst kurz auf 2024 zurück. Danach werfen wir einen Blick auf die Entwicklung und Vielfalt der Code-Generierung und untersuchen das Thema aus vier verschiedenen Perspektiven: die Abstraktionsebene, den Zeitpunkt der Code-Erstellung (Build-Time vs. Runtime), die Komplexität und die Zielgruppe.

Wir beleuchten dabei unterschiedliche Arten der Code-Generierung: von klassischen Compilern, die Maschinencode erzeugen, über Werkzeuge wie Vite und Webpack, die Hochsprachen optimieren, bis hin zu Systemen, die selbst Hochsprachen generieren. Auch die grafische Programmierung – wie sie in Low-Code/No-Code-Tools zu finden ist – wird als eine Form der Code-Generierung behandelt.

Ein weiteres zentrales Thema ist die wachsende Rolle von KI. Sie eröffnet neue Möglichkeiten in der Code-Generierung und könnte den traditionellen Entwicklungsprozess grundlegend verändern. Allerdings sehen wir auch hier klare Grenzen in der Komplexität, die KI (noch) nicht überschreiten kann.

Folge 74

OT Pentesting mit Thomas Weber von CyberDanube 

In Folge 74 geht es um Pentesting in OT-Infrastrukturen, also industrielle Steuerungssysteme und Betriebstechnologien. Thomas Weber, Founder & Technical Director beim Wiener Cybersecurity-Spezialisten CyberDanube, gibt Einblicke in die Praxis des OT-Pentestings. Pentesting bedeutet, Schwachstellen in einer Infrastruktur durch simulierte Angriffe zu identifizieren, bevor sie von böswilligen Akteuren ausgenutzt werden können. Besonders im OT-Bereich, wo Maschinen, Anlagen und Geräte betroffen sind, ist dies entscheidend, um Ausfälle und potenzielle Sicherheitsrisiken zu verhindern.

Du erfährst, wie typische Schwachstellen wie fehlende Netzwerksegmentierung, veraltete Softwarestände und schwache organisatorische Maßnahmen wie unsichere Passwörter vermieden werden können. Thomas erklärt außerdem die verschiedenen Ansätze des OT-Pentestings – Whitebox, Greybox und Blackbox – und warum es wichtig ist, sowohl die Infrastruktur der Betreiber als auch die Geräte der OEMs (Original Equipment Manufacturer) auf potenzielle Sicherheitslücken zu testen.

Folge 73

InfluxDB - Die beliebteste Open-Source-Zeitreihendatenbank

InfluxDB ist eine spezialisierte Zeitreihendatenbank, entwickelt von InfluxData, und eignet sich ideal für die Speicherung und Analyse von zeitbasierten Daten wie Messwerten aus IoT-Geräten, Monitoring-Systemen oder Metriken von Anwendungen. Die Grundkonzepte umfassen points (Datenpunkte), die in buckets organisiert und unter measurements zusammengefasst werden. Zusätzlich ermöglicht InfluxDB mit Tasks die Automatisierung von Aufgaben wie Abfragen und Datenverarbeitung direkt innerhalb der Datenbank.

InfluxDB gibt es in verschiedenen Versionen, darunter die 1.x-Version und die fortschrittlichere 2.x-Version, die erweiterte Features wie eine eingebaute Benutzeroberfläche und Flux, eine eigene Abfragesprache, bietet. Seit seiner Gründung 2013 hat sich InfluxDB durch ihre Fokussierung auf hohe Schreibgeschwindigkeiten und effizientes Speichern großer Mengen an Zeitreihendaten als eine der führenden Lösungen in diesem Bereich etabliert.

Folge 72

Kubernetes mit Mario Fahlandt von Kubermatic

Das Open-Source-Tool Kubernetes hat die Orchestrierung von Containern revolutioniert. Zu Gast ist Mario Fahlandt, Customer Delivery Architect bei Kubermatic und aktiver Contributor im Kubernetes-Projekt. Mario bringt seine langjährige Erfahrung und tiefes Verständnis für Kubernetes mit und gibt uns wertvolle Einblicke in die Welt der Container-Orchestrierung.

Kubernetes ist eine Open-Source-Plattform zur Automatisierung von Bereitstellung, Skalierung und Betrieb von Container-Anwendungen. Initial entwickelt von Google, wurde es 2014 der Open-Source-Community übergeben und hat sich seitdem zu einem der wichtigsten Werkzeuge im Bereich Cloud-Native-Computing entwickelt. Es ermöglicht Unternehmen, Anwendungen flexibel und effizient über eine Vielzahl von Umgebungen hinweg zu betreiben – sei es in der Cloud, On-Premises oder in hybriden Architekturen.

In der heutigen Softwareentwicklung ist es entscheidend, Anwendungen flexibel und skalierbar zu gestalten. Genau hier setzt Kubernetes an: Es sorgt dafür, dass Container-Anwendungen zuverlässig laufen und sich bei Bedarf automatisch skalieren lassen. Außerdem reduziert Kubernetes den manuellen Aufwand bei der Verwaltung von Containern, was es besonders für komplexe und dynamische IT-Umgebungen unverzichtbar macht. Dank Features wie Self-Healing, automatischem Rollback und Load-Balancing ist es inzwischen das De-facto-Standard-Tool für moderne IT-Infrastrukturen.

Folge 71

LLMs (Large Language Models) & Transformer-Architektur

In dieser Folge werfen wir zunächst einen Blick auf neuronale Netze und erklären dann den Prozess der Entwicklung und das Training von LLMs (Large Language Models). LLMs sind leistungsstarke KI-Modelle, die entwickelt wurden, um menschenähnliche Texte zu verstehen und zu generieren. Ihre Grundlage bilden Transformer-Architekturen, die erstmals 2017 im wegweisenden Paper "Attention is All You Need" von Google eingeführt wurden. Diese Architektur hat das Feld des Machine Learnings revolutioniert, da sie es Modellen ermöglicht, kontextuelle Abhängigkeiten effizienter zu erfassen und dadurch präzisere Vorhersagen und generative Ergebnisse zu liefern.

Heute gibt es eine Vielzahl von LLMs, darunter OpenAI's GPT-Modelle, Googles BERT und T5 und Meta's LLaMA. Einige Modelle, wie OpenAI's GPT-4, sind multimodal, was bedeutet, dass sie nicht nur mit Texten, sondern auch mit Bildern arbeiten können. Diese Modelle kommen in unterschiedlichsten Anwendungsbereichen zum Einsatz, von Übersetzungen und Chatbots bis hin zur automatisierten Textgenerierung und Datenanalyse. Trotz ihrer beeindruckenden Leistungsfähigkeit gibt es Herausforderungen, insbesondere bei ethischen Fragen, der Reduktion von Bias und dem verantwortungsvollen Einsatz der Technologie.

Folge 70

MES (Manufacturing Execution System) & Beyond mit Steffen Münch von MPDV 

In dieser Folge sprechen wir mit Steffen Münch, Executive Manager Sales bei der MPDV Mikrolab GmbH, über die Entwicklung und Bedeutung von Manufacturing Execution Systems (MES). Als langjähriger Player auf dem Markt hat MPDV die Evolution von MES nicht nur miterlebt, sondern auch aktiv geprägt.

MES-Systeme sind zentrale Werkzeuge zur Steuerung und Überwachung von Produktionsprozessen, die in Bereichen wie Betriebsdatenerfassung (BDE), Maschinendatenerfassung (MDE), Qualitätssicherung und Schichtplanung zum Einsatz kommen. Neben den allgemeinen Grundlagen von MES, definiert nach der VDI 5600, beleuchten wir die Transformation dieser Systeme. MES entwickelt sich weg von starren, monolithischen Strukturen hin zu plattformbasierten Lösungen, die mehr Flexibilität bieten. Dabei öffnet sich das MES zunehmend für Ökosysteme, in denen durch Zusammenarbeit mit Partnern maßgeschneiderte Lösungen für Kunden entstehen – ein Schritt, der besonders in der modernen Fertigungsindustrie von großer Bedeutung ist.

Folge 69

Python vs. JavaScript / Node.js

In dieser Folge vergleichen wir Python und JavaScript, speziell mit Node.js im Backend. Beide Sprachen sind interpretiert und bieten ein hohes Abstraktionslevel, eignen sich aber für unterschiedliche Anwendungsfälle. Wir besprechen die Historie, Unterschiede in Syntax und Struktur sowie Herausforderungen bei Concurrency und Parallelisierung. Während Node.js mit der v8 Engine und Non-blocking Event Loops arbeitet, setzt Python auf Multi-Threading. Weitere Themen sind npm vs. pip, Typisierung, Standardbibliotheken, OOP vs. funktionale Programmierung, Datenmodelle, und das umfassende Ökosystem beider Sprachen.

Folge 68

Docker und Docker Compose einsetzen. Wie geht's richtig?

In dieser Episode werden die Grundlagen von Docker und Docker Compose sowie deren Bedeutung in der modernen Softwarearchitektur behandelt. Docker ermöglicht die Erstellung von leichtgewichtigen, isolierten Containern und basiert auf fortschrittlichen Funktionen des Linux Kernels. Es wird erläutert, wie Images, Container, Volumes und Netzwerke zusammenarbeiten und welche Orchestratoren wie Compose und Kubernetes zur Verfügung stehen.

Ein Beispielprojekt, ein kleiner Web Service, veranschaulicht die Architekturentscheidungen zwischen Cloud Services und selbstgebauten Lösungen. Die Herausforderungen beim Deployment für Entwicklungs- und Produktionsumgebungen werden ebenfalls diskutiert, und es wird erklärt, wie ein effektives Projekt-Setup mit Docker und Docker Compose gestaltet werden kann.

Wichtige Themen sind die Erstellung von Dockerfiles, die Nutzung von Multi-Stage Builds und die Verwaltung der erforderlichen Docker Compose YAML-Dateien für unterschiedliche Umgebungen. Diese Episode bietet wertvolle Einblicke und praktische Tipps zur erfolgreichen Implementierung von Docker in Softwareprojekten.

 

Folge 67

PostgreSQL und die Auswahl der richtigen Datenbank

Datenbanken sind das Herzstück jeder modernen Softwareentwicklung – sie speichern und verwalten die Informationen, die eine Anwendung am Laufen halten. Wenn es um strukturierte und unstrukturierte relationale Daten geht, setzen wir klar auf PostgreSQL. Aber warum genau? In dieser Folge werfen wir einen detaillierten Blick auf die Kriterien, die bei der Auswahl der richtigen Datenbank entscheidend sind: von der Datenstruktur über Lese- und Schreiboperationen bis hin zu Standardisierung, Lizenzkosten und Erweiterbarkeit. Dabei zeigen wir, wie PostgreSQL in all diesen Kategorien punktet und welche Zusatzfunktionen es von anderen relationalen Datenbanksystemen abhebt.

Natürlich werfen wir auch einen Blick auf den ISO-Standard für SQL-Datenbanken und die Geschichte von PostgreSQL, die dieses System so mächtig gemacht haben. Doch um fair zu bleiben, stellen wir PostgreSQL im Vergleich mit anderen beliebten RDBMS wie MySQL, Oracle, Microsoft SQL Server, MariaDB und SQLite auf den Prüfstand. Du wirst sehen, dass viele dieser Systeme ihre eigenen Stärken haben – aber am Ende bleibt für uns nur eine wahre Lieblingsdatenbank. Welche das ist? Du ahnst es vielleicht schon – und wir verraten dir heute, warum!

 

Folge 66

REST API: Grundlagen und Design Best Practices

REST APIs sind heute aus der modernen Softwareentwicklung nicht wegzudenken. Sie bilden das Rückgrat vieler Webanwendungen und ermöglichen es verschiedenen Systemen, effizient miteinander zu kommunizieren. Egal, ob du Daten abrufen, aktualisieren oder löschen möchtest – REST bietet eine flexible, standardisierte Möglichkeit, um genau das zu tun. Besonders in einer Welt, in der Apps und Services zunehmend auf Interoperabilität setzen, ist das Verständnis von REST APIs essenziell. In dieser Folge erfährst du, warum REST so populär ist, welche HTTP-Methoden und Statuscodes die Grundlage bilden und wie Authentifizierungsverfahren wie OAuth2 die Sicherheit von APIs gewährleisten. Wir zeigen dir, wie REST APIs aufgebaut sind, welche Best Practices im Design gibt und warum sie eine so entscheidende Rolle in der Webentwicklung spielen – von der Datenübertragung bis zur Integration verschiedener Dienste und Plattformen. Während der gesamten Folge lassen wir auch Vergleiche mit SOAP und GraphQL einfließen, damit du die Unterschiede kennenlernst.

 

Folge 65

PWA (Progressive Web App) oder native App für Android und iOS?

In der sich rasant entwickelnden Welt der mobilen Technologie stehen Unternehmen vor einer entscheidenden Frage: Progressive Web Apps oder Native Apps? Während Native Apps lange Zeit als Goldstandard galten, gewinnen Progressive Web Apps zunehmend an Bedeutung. 

PWAs, die mit Web-Technologien wie HTML, CSS und JavaScript entwickelt werden, bieten Schnelligkeit, Offline-Funktionalität und plattformübergreifende Kompatibilität – und versprechen damit das Beste aus beiden Welten. Durch die Nutzung von Service Workers können PWAs sogar in Offline-Szenarien performen, während sie über Web Manifests das Look-and-Feel einer nativen App nachahmen. Doch können sie wirklich mit der Performance und den erweiterten Funktionen nativer Apps mithalten?

Native Apps hingegen werden speziell für eine Plattform entwickelt – beispielsweise mit Swift oder Objective-C für iOS, und Kotlin oder Java für Android. Dies ermöglicht ihnen den direkten Zugriff auf die Hardware des Geräts, was in der Regel zu einer besseren Performance und einer tieferen Integration in das Betriebssystem führt. Auch Funktionen wie Push-Benachrichtigungen, Zugriff auf die Kamera oder GPS, und die Nutzung von App-spezifischen APIs sind bei nativen Apps oft einfacher umzusetzen.

Entdecke in unserer heutigen Folge die Vor- und Nachteile beider Ansätze. Du erfährst, wie PWAs und Native Apps entwickelt werden können, welche Technologien und Entwicklungsumgebungen jeweils zum Einsatz kommen und für welche Anwendungsfälle sie sich am besten eignen.

Folge 64

User Management und Authentifizierung im Web 

Die Nutzerverwaltung ist ein wesentlicher Bestandteil moderner Web-Anwendungen. Es geht dabei nicht nur um die Authentifizierung menschlicher Nutzer, sondern auch um die Verwaltung von Clients und Diensten innerhalb einer Applikation. Die Komplexität dieser Implementierung hat die Nachfrage nach SaaS-Lösungen und integrierbaren Bibliotheken stark erhöht. Konzepte wie Tenants (Mandanten), Applications und Rollen spielen hierbei eine zentrale Rolle. Wesentliche Prozesse wie Sign-Up, Sign-In und Passwortwiederherstellung müssen ebenso bedacht werden wie die technische Umsetzung von Social Sign-in über Identity Providers (IDP) wie Google oder Microsoft. In dieser Folge erhältst du einen umfassenden Überblick über das User Management und seine technischen Komponenten. Tokens, wie Access und Refresh Tokens, sind unerlässlich und ermöglichen es uns, in Applikationen eingeloggt zu bleiben. Anhand von Beispielen aus Heisenware, wo wir FusionAuth als selbst-gehostete Community Edition einsetzen, beleuchten wir die Praxis und Herausforderungen des User Managements.

Folge 63

Der Non-Dev Tool und Tech Stack (von Heisenware) 

Wir tauschen die Rollen. Heute ist Burkhard der Fragesteller und Gerrit gibt Einblicke in den Heisenware Tech Stack außerhalb der Entwicklung. Diese Folge gibt dir einen Überblick und teils auch tiefere Einblicke in Software und Tools, die du vielleicht auch in deiner Firma nutzen kannst. Wir behaupten natürlich nicht, dass es der perfekte Stack ist und freuen uns über deine Kommentare zu den Tools, die du nutzt und die wir unbedingt noch kennenlernen sollten.

Folge 62

UX/UI mit Sandra Lee Ehrig von adesso

Als Expertin begrüßen wir in dieser Folge Sandra Lee Ehrig, Lead Concept Developer / Lead UX Designerin bei adesso SE. UX und UI sind Themen, die, wenn sie gut gemacht sind, kaum auffallen, weil sie einfach intuitiv wirken. Nur wenn sie schlecht sind, bemerken wir sie wirklich. Doch was steckt dahinter? Den wissenschaftlichen Ansatz mit viel Praxisbezug und Anekdoten lernst du in dieser Folge kennen. Der Fokus liegt dabei, wie immer bei Einfach Komplex, auf digitalen Produkten.

Nachdem wir grundlegende Definitionen geklärt haben, erklärt uns Sandra, wie Nutzerforschung und Usability-Tests dazu beitragen, hervorragende User Experiences zu schaffen. Wir geben Einblicke in die Arbeit mit Designsystemen und UI-Bibliotheken wie Material UI (MUI), Bootstrap und Tailwind CSS. Themen wie Barrierefreiheit und Green UX werden ebenfalls beleuchtet, um zu zeigen, wie man inklusive und nachhaltige digitale Produkte gestaltet. Neurowebdesign sowie Voice-, Gestensteuerung und Brain-Computer-Interfaces bieten spannende Ausblicke auf die Zukunft der digitalen Interaktion. Lass dich inspirieren und lerne, wie du durch cleveres UX- und UI-Design bessere digitale Erlebnisse schaffen kannst.

Folge 61

Das Internet: Wichtige Entwicklungen

Nachdem wir in Folge 60 die Geschichte und Funktionsweise des Internets beleuchtet haben, widmen wir uns heute wichtigen Entwicklungen, die das Internet bis heute prägen und künftig prägen werden. Wir beginnen mit Web1, das durch Dienste wie GeoCities und Content von wenigen Publishern geprägt war, und gehen weiter zu Web2, dem interaktiven Internet, wo jeder zum Publisher wurde. Schließlich betrachten wir Web3, das eine Dezentralisierung der Datenhaltung anstrebt.

Auch das mobile Internet hat sich in den letzten Jahren rasant verbreitet. Fortschritte in Übertragungsstandards und die Entwicklung von Hardware, insbesondere des iPhones, haben dazu beigetragen, dass das mobile Internet heute allgegenwärtig ist. Moderne Cloud-Technologie treibt heute fast alle Anwendungen im Internet an, obwohl sie einige Zeit benötigte, um sich durchzusetzen.

Das Internet der Dinge (IoT) erweitert die Nutzung des Internets erheblich, da die Anzahl der verbundenen Geräte stark ansteigt. IoT bringt neue Datenarten, Protokolle und Netzwerktopologien mit sich, die wir ebenfalls betrachten. Zuletzt werfen wir einen Blick auf die Rolle der Künstlichen Intelligenz im Internet, beispielsweise in Form von Chatbots und intelligenten Suchtechnologien.

Folge 60

Das Internet: Entstehung und Funktionsweise

In dieser Folge beleuchten wir die Geschichte und Technik des Internets. Wir beginnen mit den frühen Tagen des Internets und betrachten die Entwicklung von ARPANET, die Rolle des CERN und von Tim Berners-Lee bei der Erfindung des WWW (World Wide Web). Dabei werfen wir einen Blick auf historische Meilensteine und interessante Anekdoten, wie die erste große Suchmaschine Altavista, die Burkhard noch benutzt hat. Wir beleuchten die wesentlichen Komponenten und die Funktionsweise des Internets, erklären, wie Nodes, Links, Switches und Router zusammenarbeiten, um Daten in Form von Paketen zu übertragen. Weiterhin wird das ISO/OSI-Referenzmodell und der Protokoll-Stack besprochen, einschließlich der Mechanismen des Multiplexings und De-Multiplexings. Mit dieser Episode bieten wir einen umfassenden Überblick über die Infrastruktur, die Protokolle und die Architektur, die das Internet zu dem machen, was es heute ist. Ein Muss für alle, die mehr über die Geschichte und die komplexe Funktionsweise des Internets erfahren möchten.

Folge 59

LoRaWAN mit Martin Lempfert von den Stadtwerken Lübeck 

Wir begrüßen heute Martin Lempfert als Gast. Martin ist Senior Referent Digitale Daseinsvorsorge für die Stadtwerke Lübeck und gemeinsam widmen wir uns dem Thema LoRaWAN. LoRaWAN (Long Range Wide Area Network) ist ein drahtloses Netzwerkprotokoll, das speziell für IoT (Internet of Things) Anwendungen entwickelt wurde. Es ermöglicht energieeffiziente, drahtlose Kommunikation über weite Entfernungen hinweg und eignet sich besonders gut für die Übertragung kleiner Datenmengen. Du lernst viel über den technischen Aufbau, Sensoren und Gateways. Außerdem vergleichen wir LoRaWAN mit anderen Funk- und Übertragungsstandards, sowohl im Open Source als auch im Closed Source Bereich. Martin gibt uns Einblicke in die vielseitigen Anwendungsfälle von LoRaWAN, vor allem in Städten und wie es zur Entwicklung von Smart Cities beitragen kann. Wir diskutieren spannende Use Cases wie Wasserzählermessung, Starkregenmessung, Überwachung innerstädtischer Baustellen sowie No-Parking Areas. Auch die Vor- sowie Nachteile von LoRaWAN im Privatgebrauch und in Smart Home Anwendungen schneiden wir an.

Folge 58

Was Software mit natürlichen Organismen gemein hat. Vom Organ bis zur DNA.

Natürliche Organismen und komplexe Softwaresysteme haben mehr gemeinsam, als man auf den ersten Blick denkt. Burkhard, als gelernter Molekularbiologe, ist besonders fasziniert vom Einklang von Natur und IT. Angefangen bei den Organen über die Zellbausteine bis zur DNA gehen wir unserem Körper und anderen Organismen auf den Grund. Auf jeder Ebene finden wir verblüffende Parallelen zur Welt der Software. Von diesen Parallelen gibt es deutlich mehr als nur die Künstliche Intelligenz, deren Funktionsweise dem menschlichen Gehirn nachempfunden ist. Wir werden sehen, was Sensoren und Aktoren im Körper sind, welche Rolle das Nervensystem hat, Proteine und Aminosäuren auseinandernehmen und letztendlich den Code der Natur, die DNA, mit dem Binärcode eines Computers vergleichen.

Folge 57

DevOps und Code-Automatisierung

DevOps ist eine Methodik in der Softwareentwicklung, die darauf abzielt, die Zusammenarbeit zwischen Entwicklungsteams und IT-Betrieb zu stärken. DevOps ist eine Wortschöpfung aus den zwei Disziplinen Development und Operations. Ein zentraler Bestandteil davon ist CI/CD, also Continuous Integration und Continuous Delivery bzw. Deployment. Diese Praktiken helfen dabei, Software schneller und zuverlässiger bereitzustellen, indem sie eine kontinuierliche Integration und Auslieferung von Code ermöglichen. In dieser Folge behandeln wir nicht nur die Grundprinzipien von DevOps und CI/CD, sondern geben auch praktische Einblicke, wie diese Ansätze in realen Projekten angewendet werden. Wir diskutieren über essentielle Tools, die Effektivität der Teams unter DevOps und die Herausforderungen, die dabei auftreten können.

 

Folge 56

IoT Gateways und Edge Konnektoren

IoT-Gateways sind zentrale Knotenpunkte im Internet of Things (IoT), die Geräte, Sensoren und die Cloud verbinden. Sie ermöglichen die Kommunikation zwischen Systemen mit unterschiedlichen Protokollen und gewährleisten eine sichere und effiziente Datenübertragung. In dieser Folge besprechen wir die Rolle, Varianten, Nutzen sowie die Hard- und Software von IoT-Gateways. Als unverzichtbarer Teil des IoT-Ökosystems unterstützen sie die Vernetzung einer Vielzahl von Geräten und steigern die Effizienz von Prozessen. Mit der Weiterentwicklung von IoT-Technologien bleiben IoT-Gateways entscheidend für die Realisierung neuer Anwendungen und Dienste. Zuletzt gehen wir auf den Heisenware Edge Konnektor, unsere eigene Software-basierte Gateway-Lösung, ein.

Folge 55

Responsive Webdesign und HTML-Styling mit CSS (Cascading Style Sheets)

CSS, kurz für "Cascading Style Sheets", ist eine wichtige Technologie im Webdesign, die das Aussehen und Layout von HTML-Dokumenten steuert. Seit seiner Einführung im Jahr 1996 hat sich CSS ständig weiterentwickelt und ist zu einem integralen Bestandteil der Webentwicklung geworden. Mit CSS können Entwickler das Aussehen von Webseiten individuell gestalten, indem sie Eigenschaften wie Farben, Schriftarten, Abstände und Positionen definieren. Durch die Verwendung von CSS3, der neuesten Version von CSS, stehen Entwicklern eine Vielzahl von leistungsstarken Funktionen und Techniken zur Verfügung, darunter Flexbox, Grid Layouts, Animationen und Transitions. CSS ermöglicht es, dass Webseiten auf verschiedenen Geräten und Bildschirmgrößen ansprechend dargestellt werden, und trägt somit maßgeblich zur Benutzererfahrung im Web bei.

Folge 54

E-Rezept und Telematikinfrastrukur: Eine technische Erklärung

Im Januar 2024 wurde das E-Rezept eingeführt und markiert einen Meilenstein in der Digitalisierung des Gesundheitswesens. Mit der Telematikinfrastruktur (TI) und der Elektronischen Patientenakte werden Prozesse optimiert und die Patientenversorgung modernisiert. Die Gematik spielt eine zentrale Rolle bei der Umsetzung und Überwachung des Projekts. Dabei ersetzt das E-Rezept schrittweise das Papierrezept und vereinfacht den Prozess für Patienten, Ärzte und Apotheker. Eine begleitende App unterstützt den Austausch und die Verwaltung elektronischer Rezepte. Ein erfolgreicher Rollout erfordert effektives Projektmanagement und klare Kommunikation zwischen allen Beteiligten. Wir sind uns nicht sicher, ob das komplett gelungen ist. Das Thema ist von so großer Relevanz für alle in Deutschland, dass wir dem E-Rezept eine ganze Folge widmen und versuchen, die technischen Details so gut es geht zu verstehen und zu erklären.

Folge 53

Embedded Systems mit Alexander Eisenhuth

Embedded Systems sind die stillen Helden in unserer digitalen Welt. Wir begegnen ihnen täglich, oft ohne es zu merken. Von der Waschmaschine bis zum Auto – überall sind sie im Einsatz. In dieser Episode tauchen wir in die Welt dieser unscheinbaren Technologie ein. Was steckt hinter einem System-on-a-Chip? Wie arbeiten Firmware und Hardware zusammen? Wir werfen einen Blick auf die Entwicklung dieser kleinen, aber leistungsstarken Systeme. Versteh, wie Compiler ihre Aufgabe erfüllen und wie Testing und Flashing funktionieren. Entdecke, warum es Situationen gibt, in denen Betriebssysteme besser als „Bare Metal“ sind. Zuletzt vergleichen wir Embedded-Systeme mit der Welt der Web-Entwicklung. Für die Folge haben wir Alex Eisenhuth, selbstständiger Embedded Softwarearchitekt, zu Gast, der seine Erfahrungen und sein Wissen mit uns teilt.

Folge 52

Zero Trust mit Simon Holl von MindBytes

In dieser Folge mit Simon Holl, Mitgründer von MindBytes, erfährst du, wie das Zero Trust Sicherheitskonzept herkömmliche Ansätze herausfordert. Zero Trust ist mehr als eine Software – es sind Prinzipien, die Sicherheit neu definieren. Wir diskutieren die Veränderung von "Ich schütze das Tor" zu "Ich vertraue niemandem", erklären das "Assumed Breach"-Prinzip und geben dir Handlungsempfehlungen für deine Sicherheitsstrategie im Unternehmen. Entdecke, wie Zero Trust seit seiner wissenschaftlichen Erwähnung 1994 die Landschaft der IT-Security revolutionierte. Ein Muss für alle, die die Zukunft der Cybersicherheit verstehen wollen!

Folge 51

Blockchain in der Industrie mit Erik Neumann von der Hochschule Mittweida

Die Blockchain kann Sicherheit und Nachverfolgbarkeit in Produktions- und Wertschöpfungsnetzwerken erhöhen. Sie stellt als manipulationssichere Form der Datenhaltung eine echte Alternative zu herkömmlichen Datenbanken dar. Daher haben wir Erik Neumann, Blockchain Developer an der Hochschule Mittweida und Experte auf dem Gebiet der Blockchain, in den Podcast eingeladen. Erik gibt uns einen Überblick über Grundlagen wie Hash-Funktion und Konsensverfahren. Im Anschluss diskutieren wir Anwendungsfälle und Vorteile der Blockchain in der Industrie. Konkret geht es dabei auch um das safe-UR-chain Projekt, das es sich zur Aufgaben gemacht hat, angriffs- und fälschungssicherer Datenströme innerhalb eines Unternehmens und in Wertschöpfungsnetzwerken sicherzustellen. Zuletzt besprechen wir, wie die Blockchain und safe-UR-chain, im Unternehmen getestet und eingeführt werden können. Denn safe-UR-chain wird demnächst als Open-Source-Software zur Verfügung stehen.

Folge 50

OAuth 2.0 für Authentifizierung und Autorisierung im Web

Authentifizierung und Autorisierung bilden unverzichtbare Komponenten nahezu jeder Software. Wir werfen einen Blick auf die Ursprünge mit individuellen Datenbanken zur Authentifizierung und die Entwicklung bis hin zu modernen Ansätzen wie OAuth 2.0 und den dazugehörigen OAuth-Flows. Dabei geht es auch um die Verwendung von Session-Tokens, Cookies und JWTs (JSON Web Tokens) sowie ihre Rolle beim sicheren Austausch von Authentifizierungsinformationen. Abschließend betrachten wir auch das Konzept des Single Sign-On und die Unterstützung durch Identitätsdienstleister (ISPs) bei der Authentifizierung und Autorisierung.

Folge 49

Software Pricing mit Dr. Sebastian Voigt von hy

Pricing von Software, Geschäftsmodelle und psychologische Aspekte haben wir mit dem Pricing Experten Dr. Sebastian Voigt besprochen. Sebastian ist Partner sowie Mitglied der Geschäftsführung der Axel Springer hy GmbH und Verantwortlicher für die Pricing und Sales Business Unit. Digitale Dienstleistungen und Software zu bepreisen oder als Kunde Preise zu vergleichen, ist nicht ganz einfach. Diese Folge bietet dir die Möglichkeit, die „andere Seite“ zu verstehen und außerdem aus den vielen spannenden Anekdoten zu lernen. Erfahre, welche Rolle die Psychologie spielt, was bei der Kommunikation von Preisen zu beachten ist und wie man sich als Anbieter über Preise differenzieren kann. Heute nicht so technisch, aber mindestens genauso spannend! Wenn du noch mehr von Sebastian und zum Thema Pricing erfahren möchtest, empfehlen wir den brandneuen Pricing Friends Podcast.

Folge 48

Die KI-Technik RAG (Retrieval-Augmented Generation) und die Anwendung im Unternehmen

Retrieval-Augmented Generation (RAG) ist eine Technik der Künstlichen Intelligenz (KI), die die Stärken von abfragebasierten und generativen Modellen kombiniert. Abfragebasierte Modelle sind in der Lage, relevante Informationen aus einem Datensatz zu finden, während generative Modelle neue Informationen generieren können. Bei RAG wird zunächst eine Frage oder Abfrage von einem Benutzer eingegeben. Diese Abfrage wird dann mittels Vektordatenbank analysiert, um die relevanten Informationen aus einem Datensatz zu finden. Die gefundenen Informationen werden dann an ein generatives Sprachmodell (LLM) gesendet, das eine Antwort generiert. Wir besprechen, wie sich diese Methode im Unternehmen einsetzen lässt, welche Voraussetzungen gegeben sein müssen und welche Technik dabei zum Einsatz kommt.

Folge 47

Industrie 4.0 durch App Stores für die SPS mit Samuel Greising von FLECS Technologies

Die SPS (Speicherprogrammierbare Steuerung) ist ein hoch spezialisierter Computer und ein zentraler Bestandteil automatisierter Industrieprozesse. Häufig wird auch der englische Begriff PLC (Programmable Logic Controller) für die SPS verwendet. Im Zeitalter von Industrie 4.0 ändert sich die Rolle der SPS. Sie muss flexibler werden, um neue Anforderungen in der Automation, Datenerfassung und Datenverarbeitung umsetzen zu können. Beispielsweise sollte die SPS in der Lage sein, Algorithmen zur Datenauswertung auszuführen oder Daten direkt an eine Cloudlösung zu senden. Dafür sind neue Möglichkeiten erforderlich, um Software auf die SPS zu übertragen und diese Software zu verwalten. Das Konzept von Apps und des App Stores hält Einzug in die Industrie. Als absoluter Experte auf diesem Gebiet haben wir in dieser Folge hab Samuel Greising, Mitgründer und Geschäftsführer der FLECS Technologies, zu Gast. Sam führt uns durch die Geschichte der SPS, erläutert ihre Funktionsweise und zeigt uns auf, wie die Zukunft der SPS und der Industrieautomation aussehen wird.

Folge 46

Softwarearchitektur planen: Microservices, Frontend, Backend, Datenhaltung & Kommunikation

Anhand einer beispielhaften Softwareanwendung, der To Do App, besprechen wir die wichtigsten Elemente der Softwarearchitektur. Dazu gehören der grundlegende Architekturstil, Frontend, Backend, Datenhaltung, Datenmodellierung und Systemkommunikation. Die Folge soll dir dabei helfen, ein mögliches Vorgehen bei der Planung von Softwareprojekten zu verstehen. Je nach Projekt, müssen noch weitere Aspekte wie Sicherheit, User Interface, Wartbarkeit, Logging oder Monitoring aufgenommen werden. Für unsere Folge konzentrieren wir uns jedoch auf die wichtigsten Elemente. Neben dem Vorgehen zur Entwicklung einer passenden Architektur lernst du wie immer viele Technologien und Best Practices kennen.

Folge 45

RFID: Funktionsweise, Anwendungsfälle und Sicherheitsaspekte

RFID (Radio-Frequency Identification) ist eine drahtlose Technologie zur Identifikation und Datenerfassung. Sie besteht aus einem kleinen Tag und einer Antenne. RFID-Tags können passiv oder aktiv sein und werden in verschiedenen Frequenzbereichen eingesetzt. RFID-Technologie findet breite Anwendung in Bereichen wie Logistik, wo sie die Verfolgung von Waren ermöglicht, im Einzelhandel zur Inventarverwaltung, und im Gesundheitswesen für die Identifikation von Patienten und Arzneimitteln. Sicherheitsaspekte spielen eine Rolle, da Datenmissbrauch und unbefugter Zugriff potenzielle Risiken darstellen. Daher werden Verschlüsselungstechnologien und Zugriffskontrollen eingesetzt. RFID integriert sich auch zunehmend in das Internet der Dinge (IoT), indem es physische Objekte digital vernetzt. Dies ermöglicht die Erfassung und Übertragung von Umgebungsdaten durch Sensoren auf RFID-Tags über das Internet.

Folge 44

Linux: Grundlagen und Anwendung

Linux ist ein hochgeschätztes Betriebssystem unter Entwicklern weltweit. Heute erhältst du einen Überblick über das Open-Source-Betriebssystem, denn auch Burkhard ist ein großer Verfechter. Linux findet nicht nur auf den Computern von Anwendern Verwendung, sondern auch in Rechenzentren, auf Mini-PCs und in vielen anderen Anwendungsbereichen. Der Schöpfer von Linux, Linus Thorvalds, hat eine lebendige und engagierte Community um dieses Betriebssystem versammelt. Die Vielseitigkeit von Linux zeigt sich in den verschiedenen Distributionen, die für spezifische Anwendungsfälle optimiert sind. Als Open-Source-Plattform steht Linux für Transparenz und gemeinschaftliche Weiterentwicklung.

Folge 43

Zeit in der Softwareentwicklung

Zeit und die Messung von Zeit klingt ziemlich trivial. Doch in der Softwareentwicklung spielt die korrekte Verarbeitung von Zeit eine entscheidende Rolle. Es werden verschiedene Zeitformate UTC (Koordinierte Weltzeit), Unixzeit und NTP (Network Time Protocol) verwendet. Worauf dabei zu achten ist und welche weiteren Herausforderungen Zeit noch mit sich bringt, erfährst du in der heutigen Folge.

Folge 42

IoT-Apps mit der SensorThings API entwickeln

Die OGC SensorThings API ist eine Spezifikation für den Austausch von IoT-Daten. Sie gibt ein Datenmodell für den Zugriff auf Sensordaten über das Internet vor. Die SensorThings API wurde vom Open Geospatial Consortium (OGC) entwickelt und basiert auf der ISO 19156. Das Fraunhofer IOSB hat die SensorThings API in seinem FROST®-Server implementiert. Die Implementierung steht als Open-Source-Software zur freien Nutzung zur Verfügung. Da wir bei der Heisenware IoT-Apps für und mit unseren Kunden entwickeln, ist es ein Muss, die API und ihre Implementierung genauer unter die Lupe zu nehmen.

Folge 41

Domains, DNS-Server und DNS-Einträge

Domains sind Namen für Websites im Internet, zum Beispiel "example.com". Damit Computer diese Namen verstehen können, gibt es DNS-Server. DNS-Server übersetzen die menschenfreundlichen Domainnamen in numerische IP-Adressen wie "192.168.1.1", die Computer verwenden, um miteinander zu kommunizieren. DNS-Server helfen also beim Besuchen einer Website oder Schreiben einer E-Mail, indem sie den eingegebenen Namen in die richtige Adresse umwandeln. So findet der Computer den richtigen Server und die gewünschte Seite angezeigt wird.

Folge 40

Chrome Developer Tools verstehen und anwenden

Die Chrome Developer Tools sind ein leistungsstarkes Instrument, das unter Entwicklern weithin bekannt ist. Doch auch im Marketing, z. B. bei der Analyse und Gestaltung von Websites, können sie beträchtlichen Nutzen bieten. Da viele Menschen die Chrome Developer Tools jedoch noch nicht kennen, präsentieren wir in dieser Episode ihre wichtigsten Funktionen und zeigen auf, wie sie effektiv eingesetzt werden können. Natürlich liefern wir auch wieder Einblicke in die Welt der Software und Softwareentwicklung im Allgemeinen. Zusätzlich schneiden wir Themen wie User-Tracking und SEO an. Und wir versprechen euch: Schon das Erkunden der Chrome Developer Tools allein macht jede Menge Spaß.

Folge 39

Node-RED: Die Open-Source Low-Code-Plattform (2 von 2)

Node-RED ist eine Open-Source-Plattform für die visuelle Programmierung von IoT- (Internet of Things) und Automatisierungsaufgaben. Für den zweiten Teil der Doppelfolge hat sich Burkhard die Plattform genauer angesehen. Es geht heute um alle wichtigen Funktionen und Konzepte. Dazu zählen Flows, Nodes, Subflows und vieles mehr. Außerdem besprechen wir, ob Node-RED als Produktivsystem sinnvoll einsetzbar ist und wenn ja, unter welchen Bedingungen. Soviel vorweg, unserer Meinung nach, eignet sich Node-RED für bestimmte Anwendungsfälle ganz hervorragend. Und schließlich können wir nicht anders, als Node-RED mit anderen Low-Code-Tools und -Plattformen in den Ring zu werfen. Falls du den ersten Teil der Doppelfolge noch nicht gehört hast, empfehlen wir dir zunächst Folge #38 zu hören.

Folge 38

Node-RED: Die Open-Source Low-Code-Plattform (1 von 2)

Node-RED ist eine Open-Source-Plattform für die visuelle Programmierung von IoT- (Internet of Things) und Automatisierungsaufgaben. Mit Node-RED können Entwickler Flows erstellen, indem sie Knoten (Nodes) aus einer vielfältigen Sammlung von vorgefertigten Modulen ziehen und miteinander verknüpfen. Diese Flows ermöglichen die Integration von Geräten, APIs und Diensten, wodurch komplexe Automatisierungsaufgaben vereinfacht werden. Node-RED ist anpassbar und erweiterbar, und es wird von einer engagierten Community unterstützt, die ständig neue Nodes und Plugins entwickelt. Die Plattform erfreut sich großer Beliebtheit. Wir erklären in Folge 1, was genau Node-RED ist, wo es zum Einsatz kommt und wie gestartet werden kann. In Folge 2 soll es dann technischer werden und wir stellen Details vor und besprechen auch etwaige Limitierungen der Lösung.

 

Folge 37

JSONata: Die Abfrage- und Transformationssprache für JSON-Daten

JSONata ist eine leistungsstarke Abfragesprache für JSON-Dokumente, die entwickelt wurde, um das Extrahieren und Transformieren von Daten aus komplexen JSON-Strukturen zu erleichtern. Mit JSONata können Benutzer spezifische Teile eines JSON-Dokuments auswählen, Filter anwenden, Aggregationen durchführen und sogar komplexe Transformationen durchführen, ohne aufwendigen Code schreiben zu müssen. Diese Abfragesprache ist besonders nützlich in Anwendungen, die JSON-basierte Daten verwenden, wie beispielsweise Webanwendungen und APIs, um Daten effizient zu manipulieren und auszugeben. JSONata ist plattformunabhängig und kann in verschiedenen Programmiersprachen und Umgebungen eingesetzt werden, um JSON-Daten zu durchsuchen und zu bearbeiten.

Folge 36

IDEs (Integrated Development Environments): Von Visual Studio bis Jupyter Notebooks

Eine integrierte Entwicklungsumgebung (IDE) vereint die wichtigsten Werkzeuge zur Softwareentwicklung in einem Programm. Dazu zählen für die Programmierung im Wesentlichen Texteditor mit Syntaxhervorhebung und Quelltext-Formatierung, Compiler und/oder Interpreter, Linker sowie Debugger. Darüber hinaus bieten viele Entwicklungsumgebungen meist noch zusätzliche Tools und Features, etwa Auto-Vervollständigung, Refactoring, GUI-Designer, Versionsverwaltung und Profiler. Für Softwareentwickler und Programmierer sind IDEs heute unerlässlich geworden, da sie viel Komfort bieten und wesentliche Arbeitsschritte zusammenfassen und diese durch einen Klick oder ein Tastaturkürzel erledigen.

Folge 35

x86 vs. ARM: CPU-Architekturen von Intel, AMD und ARM im Vergleich

Apple hat bei seinen MacBooks gerade auf ARM-Prozessoren umgestellt und dazu steht ARM kurz vor einem Börsengang. Das ist ein guter Zeitpunkt, um einen Blick auf die x86- und ARM-Architekturen zu werfen und ihre technischen Designs zu vergleichen. Heute kannst du erfahren, warum sich Intel- und AMD-Prozessoren (x86) besonders für den Einsatz in Servern eignen und wieso ARM den Markt für Embedded Devices und Smartphones beherrscht. Außerdem betrachten wir die beiden Prozessorarten aus der Sicht von Softwareentwicklern und Anwendern.

Folge 34

Arduino: Alles über die Open-Source Mikrocontroller Plattform

In dieser Folge tauchen wir in die faszinierende Welt von Arduino ein. Wir besprechen technische Daten und die Möglichkeiten dieses revolutionären Mikrocontrollers. Von einfachen Geräten bis hin zu komplexeren Abläufen - Arduino hat das Potenzial, unsere Interaktion mit Technologie zu verändern. Seit der Entwicklung im Jahr 2005 von Massimo Banzi und David Cuartielles in Italien hat sich Arduino kontinuierlich weiterentwickelt. Wir freuen uns darauf, seine Geschichte, die Vorteile von Open-Source im Bereich Hardware und vieles mehr zu diskutieren. Am Ende gibt Burkhard noch ein paar Eindrücke, wie man selbst mit dem Arduino starten kann.

Folge 33

Event-getriebene Architekturen (EDA) und VRPC (2 von 2)

Es geht in den zweiten Teil der Doppelfolge zu Event-getriebenen Architekturen und VRPC. Nachdem wir in der letzten Folge einige Basics gelegt habe, wollen wir heute etwas tiefer absteigen und uns synchrone und asynchrone Events ansehen sowie das Polling genauer verstehen. Den Großteil der Folge widmen wir dann VRPC selbst inklusive seiner Anwendungsfälle, der Vorteile und seiner Funktionsweise. Im Gegensatz zur Nutzung von REST API oder anderen RPC-Verfahren, ermöglicht VRPC die durchgängige asynchrone Event-getriebene Architektur.

Folge 32

Event-getriebene Architekturen (EDA) und VRPC (1 von 2)

VRPC (Variadic Remote Procedure Calls) ist eine Open-Source-Kommunikationsbibliothek von Heisenware. Wir nutzen die Bibliothek als Basis für unsere Low-Code-Plattform. Die Anwendungsfälle sind neben dem IoT aber noch vielfältiger. In Folge 1 zum Thema VRPC legen wir die Basis zum Verständnis dieser modernen Technologie. Dafür gehen wir auf die Vorteile einer Ereignisgesteuerten bzw. Event-Driven Architektur ein und wie sich diese in der Funktionsweise vom Polling unterscheidet. Nächste Woche erklären wir die Details von VRPC und spielen die Funktionsweise am Beispiel einer Node.js-Anwendung durch.

Folge 31

Cloud Computing, Hyperscaler und Virtualisierung

Die Cloud ist inzwischen allgegenwärtig. Es gibt von Public Cloud über Private Cloud und Hybrid Cloud bis Dedicated Server die verschiedensten Modelle und Ansätze für das Outsourcing von Rechenkapazität. Heute beschäftigen wir uns mit diesen und diskutieren einige wichtige Begriffe. Die Grundvoraussetzung zum Teilen von Rechenkapazität ist die Virtualisierung und ist daher auch Teil der Folge.

Folge 30

Betriebssystem und Server mithilfe des Terminals administrieren

Wie kommuniziert man eigentlich mit einem Betriebssystem? Klaro, indem ich auf ‘Start’ klicke oder in Fenstern bestimmte Einstellungen vornehme. Fenster, also User Interfaces, gab es aber noch nicht immer UND noch heute gibt es sie nicht, wenn wir als User mit den Servern des Internets agieren wollen. Was aber dann? Wir brauchen ein Terminal, eine Command-Shell, eine Eingabeaufforderung, einen Prompt, eine Konsole. Es gibt viele Worte für den blinkenden Cursor auf typischerweise schwarzem Hintergrund. Je nach Betriebssystem: Windows, macOS oder Linux, gibt es unterschiedliche Variationen. Wir werden uns die relevantesten anschauen und diskutieren, warum diese einfachen Programme noch immer hochaktuell und wichtig sind.

Folge 29

React JS: Von Grundlagen bis zum Virtual DOM

React JS ist das berühmteste und am häufigsten verwendete JavaScript-Framework. Es wurde von Facebook entwickelt, um die Entwicklung reaktionsfähiger Webanwendungen zu vereinfachen. Dabei handelt es sich um eine einheitliche Plattform, mit der Entwickler komplexe Benutzeroberflächen erstellen und auf mehreren Plattformen bereitstellen können. Wir erklären, warum React JS so häufig verwendet wird und wie es sich in einer modernen Webentwicklung als vorteilhaft gegenüber anderen Frameworks wie Vue.js und AngularJS erweisen kann. Um das zu verstehen, erfährst du in dieser Folge auch, was das Document Object Model (DOM) ist und wie der Browser dieses verarbeitet. Mit dem Virtual DOM können Entwickler Benutzeroberflächen erstellen und ändern, ohne dass der Browser jedes Mal neu geladen werden muss. Dies verbessert die Performance und eignet sich besonders gut für den Einsatz bei mobilen Geräten.

Folge 28

Blockchain und Proof of Work (PoW) verstehen

Die Blockchain ist eine dezentrale digitale Datenbank, die Transaktionen oder Aufzeichnungen in Form von Blöcken speichert. Im Gegensatz zu einer zentralisierten Datenbank wird die Blockchain auf vielen Computern, den sogenannten Nodes, in einem verteilten Netzwerk gespeichert. Die Blockchain-Technologie bietet viele Vorteile, wie z. B. Transparenz, Sicherheit, Unveränderlichkeit und Dezentralisierung. Sie wird häufig mit Kryptowährungen wie Bitcoin in Verbindung gebracht, kann aber auch in vielen anderen Bereichen Anwendung finden, z. B. bei Smart Contracts, Supply-Chain-Management, Abstimmungen oder dem Schutz von geistigem Eigentum. Wir erklären die Funktionsweise und die Technik der Blockchain im Detail, da sie mit Sicherheit immer mehr Bedeutung erlangen wird.

Folge 27

OT Security mit Max Weidele von sichere-industrie.de (2 von 2)

Im zweiten Teil des Gesprächs mit Max Weidele gehen wir auf konkrete Best Practices ein, die produzierende Unternehmen treffen können, um ihre OT abzusichern. Von cleverer Netzwerksegmentierung, über Asset Management bis zur Einführung von OT Servicekatalogen gehen wir die verschiedenen Maßnahmen durch und stellen diese vor. Der Umgang mit Altsystemen, die Einführung eines Lifecycle Managements und klare Prozesse in der OT, sind zusätzliche Themen. Falls ihr den ersten Teil des Gespräch noch nicht gehört habt, solltet ihr das zunächst tun.

Folge 26

OT Security mit Max Weidele von sichere-industrie.de (1 von 2)

OT-Security ist von entscheidender Bedeutung bei der Vernetzung von Produktions- und Automatisierungstechnik mit Softwaresystemen und dem Internet. Mit Max Weidele konnten wir einen Experten für dieses wichtige Thema gewinnen. Im ersten Teil des Gesprächs mit Max geht es um die Basics der Operational Technology und die größten Herausforderungen, die es zu lösen gilt. Neben der reinen Produktion ist diese Folge auch für Logistik, Gebäudeautomation und weitere Bereiche relevant. Auch auf das IT-Sicherheitsgesetz und die Bewertung von KRITIS (Kritische Infrastruktur) beleuchten wir gemeinsam mit Max. Nächste Woche folgt Teil 2 des Gesprächs mit Best Practices zur Verbesserung der OT-Security.

Folge 25

Softwareversionierung, Versionsverwaltung und Software Release mit Git

Git ist eine beliebte und leistungsstarke Versionsverwaltungslösung für Softwareentwicklung. Entwickler können Änderungen verfolgen, verwalten und kollaborativ arbeiten. Mit Repositories speichern und organisieren sie ihren Code. Durch "Commit" werden Änderungen aufgezeichnet und geteilt. "Branching" ermöglicht separate Arbeitsbereiche für Funktionen oder Fehlerbehebungen. "Fetch" und "Pull" laden Änderungen von anderen Teammitgliedern herunter. Git bietet eine effiziente und geordnete Entwicklungsumgebung, unterstützt Teamarbeit und erleichtert Fehlerverfolgung. Es ist ein Muss für Entwickler und weit verbreitet in der Softwarebranche. Neben der Technik schauen wir uns auch die Historie von Git an und hören einige Anekdoten aus dem Entwicklerleben von Burkhard zum Thema Versionsverwaltung.

Folge 24

Zen of Python: Grundprinzipien (nicht nur) der Softwareentwicklung (2 von 2)

Das Zen of Python von Tim Peters enthält wichtige Grundprinzipien der Softwareentwicklung. Diese Prinzipien und Leitlinien darf man zum Teil mit einem Augenzwinkern verstehen. Viele Softwareentwicklerinnen und -entwickler leiten die Prinzipien in Ihrer täglichen Arbeit mit Python, aber auch mit anderen Programmiersprachen. Einige der Prinzipien lassen sich sogar auf andere Lebensbereiche übertragen. Diese Folge gibt Denkanstöße und vermittelt ein in Ansätzen philosophisches Bild der Softwareentwicklung.

Folge 23

Zen of Python: Grundprinzipien (nicht nur) der Softwareentwicklung (1 von 2)

Wir haben elf bedeutende Weisheiten bzw. Grundprinzipien der Softwareentwicklung identifiziert und stellen euch diese vor. Burkhard, wie viele andere Entwickler und Entwicklerinnen, leiten diese Prinzipien bei der Entwicklung von Software. Dabei sind die Weisheiten weit über die Softwareentwicklung hinaus von Relevanz. Viele von ihnen lassen sich genauso auf andere Unternehmensbereiche oder das Leben ganz allgemein übertragen.

Eigentlich sollten die von uns ausgesuchten elf Prinzipien nur eine Ergänzung zu den sogenannten Zen of Python von Tim Peters sein, jedoch haben wir entschieden zwei Teile aus der Folge zu machen. Nächste Woche veröffentlichen wir den zweiten Teil und gehen explizit auf die Zen of Python ein.

Wen es schon jetzt interessiert, findet die Zen of Python hier: https://peps.python.org/pep-0020/

Folge 22

JSON, YAML & XML verstehen: Austausch und strukturierte Darstellung von Daten

XML, YAML und JSON sind gängige Datenformate, die in der Softwareentwicklung verwendet werden, um strukturierte Daten darzustellen und auszutauschen. XML (Extensible Markup Language) ist ein textbasiertes Format, das hierarchische Strukturen mit Tags und Attributen verwendet. YAML (YAML Ain't Markup Language) ist ebenfalls textbasiert, aber weniger formal und leichter lesbar. Es eignet sich gut für Konfigurationsdateien. JSON (JavaScript Object Notation) ist ein datenorientiertes Format, das auf Key-Value-Wert-Paaren basiert und besonders für den Austausch von Daten zwischen Webanwendungen geeignet ist. Jedes Format hat seine eigenen Vor- und Nachteile, und die Wahl des richtigen Formats hängt von den spezifischen Anforderungen des Projekts ab. Die Kenntnis dieser Formate ist entscheidend für Entwickler, um Daten effektiv zu verarbeiten und interoperable Systeme zu entwickeln.

Folge 21

Finite-state Machines (FSM) zur Zustandsbeschreibung in der Hardware-nahen Softwareentwicklung

Bei Finite-state machines (FSM), manchmal nur als State Machines bezeichnet, handelt es sich um ein wichtiges Konzept in der Hardware-nahen Softwareentwicklung. Sie helfen bei der Modellierung und Steuerung von Systemen und sind daher äußerst relevant. FSM ermöglichen es, komplexe Verhaltensweisen in klar definierten Zuständen zu organisieren und dadurch die Programmierung zu vereinfachen. Zur Entwicklung von FSM dienen UML (Unified Modeling Language), Ablaufdiagramme und die State-transition Table. Burkhard gibt zudem Einblicke, ob sich FSM als Konzept auch für höhere Abstraktionsebenen, wie Low-Code-Plattformen, eignen. Da hat er schon seine Erfahrungen gemacht. Zuletzt reißen wir noch den Digitalen Zwilling (Digital Twin) und das Konzept der Single Source of Truth an und geben damit Ausblick auf weitere Folgen.

Folge 20

IT/OT-Konvergenz, Industrie 4.0 & Digitalisierung der Produktion

Die Gegenüberstellung von IT (Information Technology) und OT (Operational Technology) ist wichtig, da sie zwei unterschiedliche Bereiche in Unternehmen repräsentiert: IT umfasst die Verarbeitung von Informationen und Daten, während OT sich auf die Steuerung physischer Prozesse konzentriert. Die Konvergenz von IT und OT ermöglicht optimierte Abläufe, verbesserte Kontrolle und nahtlose Kommunikation. Die Gegenüberstellung hilft, die spezifischen Anforderungen und Herausforderungen jedes Bereichs zu verstehen. IT legt Wert auf Datenschutz und Cybersicherheit, während OT die Verfügbarkeit und Zuverlässigkeit von Systemen betont. Die Integration beider Bereiche ermöglicht eine ganzheitliche Betrachtung von Unternehmenssystemen und fördert strategische Planung und Wettbewerbsvorteile.

Folge 19

 TLS und SSL zur Verschlüsselung im Internet

Heute geht es um die Bedeutung von Verschlüsselung im Internet und wie SSL (Secure Sockets Layer) und TLS (Transport Layer Security) dazu beitragen, unsere Online-Kommunikation sicherer zu machen. Wir sprechen darüber, wie diese Technologien funktionieren und warum es so wichtig ist, sie zu verwenden. Dazu erfährst du, wie der sogenannte TLS-Handshake abläuft, welche Rolle digitale Zertifikate dabei spielen und was eine Certificate Authority (CA) macht. Zuletzt gibt es einen Ausblick auf private Netzwerke und wie dort für die entsprechende Verschlüsselung und Zertifikate gesorgt werden kann.

Folge 18

Low-Code-/No-Code mit Lilith Brockhaus von VisualMakers

In dieser Folge haben wir die Mitgründerin und Geschäftsführerin von VisualMakers, Lilith Brockhaus, als Gast, um über das Thema Low-Code- und No-Code-Entwicklung zu sprechen. Wie können Low-Code- und No-Code-Plattformen den Entwicklungsprozess erleichtern, wie funktionieren die Technologien funktionieren und wie sieht der optimale Tool-Stack aus? Außerdem erfahrt ihr alles über Mehrwerte und Vorteile der Verwendung von Low-Code und No-Code, aber auch die Grenzen, die es noch gibt. Natürlich hat KI (Künstliche Intelligenz) hat auch einen großen Einfluss auf dieses Thema.

Folge 17

OPC UA: Industriestandard zur Datenkommunikation in Produktion und Automatisierung

OPC UA steht für "Open Platform Communications Unified Architecture" und ist ein Industriestandard für die Datenkommunikation zwischen verschiedenen Geräten und Systemen in der industriellen Automatisierung und im IoT. Im Gegensatz zum Vorgängerstandard OPC Classic bzw. OPC DA (Data Access) ist OPC UA objektorientiert und plattformunabhängig. Dadurch bietet OPC UA zahlreiche Features und Vorteile wie z.B. ein flexibles Informationsmodell, einheitliche Datentypen und eine sichere, verschlüsselte Datenübertragung. Diese Folge widmet sich ganz dem Thema OPC UA, seine Bedeutung für die Industrie und wie es sich im Vergleich zu MQTT für bestimmte Anwendungsbereiche eignet.

Folge 16

API erklärt: REST API, GraphQL & VRPC

Zur standardisierten Kommunikation zwischen Programmen kommt die API (Application Programming Interface) zum Einsatz. Eine API, auch Programmierschnittstelle genannt, ist eine Art Adapter für die dahinter liegende Software. APIs erlauben den Datenaustausch zwischen Programmen und den Aufruf von Softwarefunktionen aus der Ferne. Gängige APIs sind die auf HTTP basierende REST API sowie GraphQL. Für das Internet der Dinge ist eine neue Art von API notwendig, die auf MQTT basiert und Auskunft über Events bieten kann. Hier bietet sich VRPC (vrpc.io), eine Open Source Technologie der Heisenware, an. Alles über die Funktionsweise von APIs, ihre Aufgaben und Vorteile lernst du in der heutigen Folge.

Folge 15

Reverse-Proxy: Von Lastenverteilung bis API-Gateway

Reverse-Proxys erfüllen viele Aufgaben und bringen jede Menge Vorteile mit sich. Reverse-Proxys sind aus modernen Cloud-Anwendungen nicht mehr wegzudenken. Wir erklären, welchen Zweck sie erfüllen, was sie ausmacht und welche Implementierungen es gibt. Natürlich geben wir dazu auch die Grundlagen, um die Technologie richtig einordnen zu können und die Folge inhaltlich verständlich zu gestalten. Lastenverteilung oder Loadbalancing und der Einsatz als API-Gateway sind dabei zwei Anwendungen eines Reverse-Proxys.

Folge 14

GPU erklärt: Was macht sie so besonders?

Anwendungen wie Machine Learning und Bitcoin Mining sind extrem rechenintensiv, so dass die CPU nicht mehr für die Berechnung in angemessener Zeit ausreicht. Die GPU eignet sich für diese Zwecke, da sie viele Rechnungen parallel durchführen kann. Wir klären, wie das funktioniert und auf welchen anderen Ebenen zusätzlich parallel gerechnet werden kann. Von nebenläufigen Threads, über verteilte Programme und Servern, bedienen sich Entwicklerinnen und Entwickler verschiedenen Methoden zur schnelleren Abarbeitung von Inputs. Doch Hardware entwickelt sich noch weiter und Grafikkarten ohne Spezialisierung bald überholt. Sogenannte ASICS (Application-specific integrated circuit) sind anwendungsspezifische integrierte Schaltungen und werden speziell für ihren Anwendungsfall designt.

Folge 13

Basics der IT-Sicherheit mit Timo Briddigkeit

IT-Sicherheit ist eines der wichtigsten Themen im Bereich der Software, aber auch ganz allgemein in der heutigen Zeit. Heute widmen wir uns zum ersten, sicher nicht zum letzten Mal, diesem Thema. Dafür haben wir uns mit Timo Briddigkeit einen Gast eingeladen, der als IT Security Consultant sein Wissen und seine Erfahrungen in den Podcast einbringt. Timo ist Freelancer im Bereich DevSecOps (Development, Security, Operations) und zusätzlich als Dozent für IT Security tätig.

Nach einer akademischen Definition von Security (Vertraulichkeit, Integrität und Verfügbarkeit) gehen wir auf Security im Alltag von Softwareentwicklern und das Security Engineering ein. Wir haben typische Bedrohungen besprochen und das STRIDE-Framework erläutert, um Bedrohungen besser einordnen zu können. Als ein Beispiel zur Vorgehensweise haben wir die Input Validierung herausgepickt und anhand von Beispielen besprochen. Natürlich ging es auch um Schutzmaßnahmen, einschließlich der Durchführung von Pentests. Manchmal hört man von Entwicklern, dass es 100 %ige Sicherheit nicht gibt, aber vielleicht handelt es sich dabei auch um eine Ausrede?! Wie schützt man sich vor Hackerangriffen und sind Mitarbeiterschulungen wirklich die beste Möglichkeit zum Schutz? All dies und vieles mehr lernst du in der heutigen Folge zu IT-Sicherheit. So viel vorweg. Sicherheit ist ein Prozess und die sogenannte Incident Response muss genauso mitgedacht werden. Also, was muss im Falle eines Vorfalls gemacht werden. Hier ist Planung sehr wichtig.

Folge 12

VPN (Virtual Private Networks) für sichere Verbindungen über das Internet

In der heutigen Folge geht es um Virtual Private Networks (VPN) und ihre Bedeutung für die Datensicherheit. Wir erklären, wozu VPNs genutzt werden und wie sie funktionieren, sowie welche verschiedenen Arten von VPNs es gibt, wie End-to-Site, Site-to-Site und End-to-End. Darüber hinaus besprechen wir verschiedene Anwendungsfälle von VPNs sowohl für Unternehmen als auch für Privatpersonen. Dabei gehen wir darauf ein, wie VPNs eingesetzt werden können, um beispielsweise den Zugriff auf sensible Daten abzusichern oder die eigene Identität zu schützen. Zuletzt geht es um die Frage, ob Virtual Private Networks für den Einsatz im Internet der Dinge geeignet sind.

Folge 11

SPA vs. MPA: Single-Page Applications & Multi-Page Applications im Vergleich

In dieser Folge dreht sich alles um die Unterschiede zwischen Single-Page Applications und Multi-Page Applications. Wir erklären, was diese beiden Konzepte bedeuten, wie sie sich voneinander unterscheiden und welche Vor- und Nachteile sie jeweils haben. Es geht um Geschwindigkeit, Sicherheit, Analytics und vieles mehr. Dabei gehen wir auch auf die Technologien ein, die für die Umsetzung dieser Anwendungen genutzt werden. Dazu gehören unter anderem HTML, CSS und JavaScript (JS). Natürlich kommen wir wieder von einem zum anderen Thema und versuchen alle Fachbegriffe, die unterwegs fallen, zu erklären. Zuletzt darf ein Ausblick auf Progressive Web Apps nicht fehlen.

Folge 10

Tools und Prozesse in der Softwareentwicklung: Von Versionierung bis Refactoring

Eine Episode rund um Tools und Prozesse in der Softwareentwicklung. Du erfährst welche Phasen es in der Entwicklung von Software gibt und welche bewährten Praktiken und Tools sich dort durchgesetzt haben. Wir nehmen dich mit in verschiedene Rollen, von Softwarearchitekt*in, über Entwickler*in bis zu Tester*innen. Du erfährst warum kein Weg an einer IDE (Integrated Development Environment) vorbeigeht und wieso auch technischen Schulden keine guten Schulden sind. Natürlich klären wir auch, wie man diese wieder los wird mittels Refactoring. Weitere Begriffe und Themen die wir besprechen sind das Ausrollen mittels CI/CD und die Nutzung der Versionsverwaltung Git, z.B. auf Github.

Folge 9

Open-Source-Software und Open-Source-Lizenzen

Open steht für Offenheit, Transparenz und Zusammenarbeit. Ausgehend von diesen Werten prägt und fördert die Open Source Initiative (https://opensource.org/) Open-Source-Software. Open Source ist aus keiner modernen Anwendung wegzudenken. Daher widmen wir uns in dieser Folge dem Thema Open Source und welche Vorteile es bietet. Wir besprechen die verschiedenen Arten von Open-Source-Lizenzen und welche Auswirkungen diese auf die Verwendung von Software haben können. Wir stellen auch die wichtigsten Open-Source-Lizenzen wie die GPL, Apache, BSD und MIT-Lizenzen vor und erläutern, welche Einschränkungen und Freiheiten diese bieten. Außerdem sprechen wir über die Menschen und Firmen, die hinter Open Source stehen und wie diese Community zum Erfolg beitragen. Abschließend geben wir Tipps, wie man Open Source am besten nutzen kann und welche Tools und Plattformen dabei helfen können. Die wohl bedeutendste Plattform zum Hosting von Open-Source-Code ist Github (https://github.com/). Da auch Heisenware Open-Source-Software entwickelt, bleibt diese nicht unerwähnt. Es handelt sich um die Technologie VRPC (https://vrpc.io/), auch zu finden im Github Repository der Heisenware (https://github.com/heisenware).

Folge 8

IoT vs. SCADA: Unterschiede, Gemeinsamkeiten & Synergien

Heute sprechen wir über SCADA (Supervisory Control and Data Acquisition) und dessen veränderte Rolle im Zeitalter des Internet der Dinge (IoT). SCADA-Systeme werden in der industriellen Steuerungs- und Leittechnik eingesetzt, um Daten zu erfassen, Prozesse zu überwachen und zu steuern. Wir diskutieren, wie SCADA-Systeme in der Vergangenheit eingesetzt wurden und wie sie sich im Kontext des IoT verändert haben. Burkhard wird aus seiner Vergangenheit am European XFEL, einer Forschungseinrichtung in Hamburg, berichten. Du lernst alle wichtigen Komponenten einer SCADA-Software kennen, wie z. B. das HMI oder den Historian. Insgesamt bietet dir diese Folge einen umfassenden Einblick in die Bedeutung von SCADA und wie es sich im Zeitalter des IoT entwickelt hat. Denn heute gibt es bessere Möglichkeiten, seine Prozesse zu steuern und zu überwachen.

Folge 7

MQTT als das Standard-Protokoll im IoT (Internet of Things)

Alle, die sich mit dem Internet der Dinge beschäftigen, kommen an MQTT (https://mqtt.org/) nicht vorbei. MQTT steht für Message Queuing Telemetry Transport. Es ist das vorherrschende Protokoll im IoT, da es speziell für den Anwendungsfall entwickelt wurde. Zur richtigen Einordnung von MQTT klären wir jedoch auch die Grundlagen von Netzwerken wie dem Internet, von Netzwerktopologien und die Basics von anderen wichtigen Protokolle wie UDP, TCP und HTTP. Im Kern der Folge geht es dann allerdings um die Funktionsweise und die Vorteile des MQTT Protokolls. Du erfährst, was ein MQTT Broker ist, was es mit publish-subscribe auf sich hat und wieso MQTT insbesondere dann gut geeignet ist, wenn sich IoT-Endgeräte in privaten bzw. getrennten Netzwerken befinden. Endgeräte, z.B. Maschinensteuerungen sind zudem nicht immer IoT-fähig, da sie nicht nativ mit MQTT ausgestattet sind. In solchen Fällen kommen Bridge-Devices oder Gateways zum Einsatz. Diese wandeln das vorliegende Protokoll oftmals in MQTT und machen aus Endgeräten Teilnehmer des IoT.

Folge 6

Datenbanken: Das Rückgrat jeder Software. SQL, NoSQL, Design und Sicherheit

Datenbanken sind ein integraler Teil von Software- und IT-Systemen und wichtiger Teil des Tech-Stacks jeder Softwareanwendung. In dieser Folge erfährst du, was Datenbanken sind und warum sie für Software-Systeme, insbesondere das Backend, so wichtig sind. Es wird auch erklärt, welche Anforderungen an Datenbanken gestellt werden. Es gibt verschiedene Typen von Datenbanken, einschließlich relationaler Datenbanken, NoSQL-Datenbanken und Zeitreihendatenbanken, die unterschiedliche Anforderungen und Einsatzgebiete haben. CRUD (Create, Read, Update, Delete) beschreibt die wichtigsten Operationen, die in Datenbanken verfügbar sind. Beliebte Datenbanken wie MySQL, PostgreSQL, MongoDB und InfluxDB werden vorgestellt. Datensicherheit spielt eine entscheidende Rolle beim Design von Datenbanken und beeinflusst den Bedarf an Rechenleistung. Du erfährst auch, was ein Datenbank-Rollback und die Retention Policy sind und warum sie wichtig sind. Alles in allem bietet diese Folge einen umfassenden Einblick in die Welt der Datenbanken. Das Thema ist aktueller denn je, weil diese überall eingesetzt werden.

Folge 5

SaaS (Software-as-a-Service) verstehen

"Software is eating the world" schrieb Marc Andreessen in 2011. Heute müsste man sagen: "Software-as-a-Service is eating the software that is eating the world". SaaS ist allgegenwärtig. Insbesondere im privaten Bereich ist die Nutzung von modernen Webanwendungen völlig normal geworden. Auch auf Unternehmensseite nimmt die Nutzung von SaaS-Tools immer weiter zu. On-premise Deployments von Cloud Software-as-a-Service stellen eine Zwischenlösung dar und werden von uns daher ausführlich besprochen. Am Ende der Folge hast du zusätzlich einen Überblick zu typischen Vorbehalten gegenüber SaaS und verstehst, was an ihnen dran ist. Du lernst außerdem, warum es im Kern bei der Einführung von Software im Kern um Vertrauen geht. Denn Vertrauen ist nötig. Entweder in einen spezialisierten SaaS-Anbieter oder eine interne IT-Abteilung, die Software betreibt und absichert. Zuletzt widmen wir uns noch der Rolle von IT-Abteilungen. Diese wird sich zukünftig, wenn Software eventuell ausschließlich zur Nutzung über das Internet bereitgestellt wird, einem deutlichen Wandel unterziehen.

Folge 4

ChatGPT und die Grundlagen künstlicher Intelligenz

ChatGPT, eine KI (Künstliche Intelligenz) von der Firma OpenAI, mit der man chatten kann und der (fast) das gesamte Wissen des Internets vorliegt, ist das bestimmende Tech-Thema der letzten Wochen. Daher gibt diese Folge einen Überblick über die Grundlagen von KI (engl. Artificial Intelligence oder AI) und über maschinelles Lernen (engl. Machine Learning). Die Folge beleuchtet den Entstehungsprozess von KI bzw. von neuronalen Netzen, von der Programmierung eines Modells, über das Training des Modells bis zur produktiven Nutzung einer KI. Die Anwendungsfälle von Künstlicher Intelligenz gehen jedoch weit über Chat hinaus. Hört diese Folge, um Methoden wie Deep Learning, aber auch die Möglichkeiten Künstlicher Intelligenz zu verstehen. Insbesondere für Firmen ist es höchste Zeit, das enorme Potenzial von Machine Learning zu erkennen und KI zu implementieren.

Übrigens kann jede und jeder ChatGPT kostenlos nutzen. Ein mächtiges Tool, das man unbedingt in seine Arbeit integrieren sollte: https://chat.openai.com/

Folge 3

Was ist Software? Basics über Programmierung, Einsen und Nullen

Was ist eigentlich Software und aus welchen Bestandteilen besteht Programmcode? Das sind die Leitfragen unserer heutigen Folge. Dabei starten wir mit den Grundlagen. Computer sind in der Lage, Binärcode zu verstehen. Es gibt aber auch noch andere Zählsysteme wie das Hexadezimalsystem, die in der Informatik genutzt werden. Was sind Mappings und welche Informationen enthält die ASCII-Tabelle? Bei den Bestandteilen von Programmcode untersuchen wir Datentypen, Funktionen, Software-Bibliotheken und vieles mehr. Objektorientierte Programmierung spielt eine weitere wichtige Rolle. Protokolle übernehmen die Serialisierung und Deserialisierung von Binärcode, wenn man Daten jeglicher Art übertragen möchte. Zuletzt ordnen wir noch Algorithmen ein, da sie oftmals mit Software in einen Topf geworfen werden. Was ist ein Algorithmus und in welcher Beziehung steht er zur Software? Auch wenn die Folge recht lang geworden ist, solltet ihr nicht Burkhards Zusammenfassung über Software und Programmierung ab (43:00) verpassen.

Folge 2

Wie Microservices und Docker die moderne Softwarewelt verändern 

Microservices haben die Softwarewelt nachhaltig verändert. Monolithische Software ist in vielen Bereichen auf dem Rückzug oder bereits komplett abgelöst. Höchste Zeit, sich mit dem Thema auseinanderzusetzen. Nach dem Hören dieser Folge weißt du, was ein Microservice ist und welche Vorteile eine Microservice-Architektur mit sich bringt. Auch im IoT ist die Microservice-Architektur nicht mehr wegzudenken und wir betrachten den gängigsten Use Case. Außerdem untersuchen wir die Grenzen von Microservices und versuchen aufzuzeigen, unter welchen Umständen monolithische Software sinnvoll sein kann. Docker-Container sind derzeit die bekannteste Technologie zur Kapselung und Bereitstellung von Microservices. Neben den technologischen Aspekten beeinflussen Microservices auch die Zusammensetzung von Teams sowie deren Prozesse zur Softwareentwicklung und zur Softwarepflege. Zuletzt darf als weitere Technologie rund um Microservices Kubernetes nicht fehlen. Daher sprechen wir es zumindest kurz an und geben einen Ausblick auf dieses Thema.

 

Folge 1

Agile Softwareentwicklung im Kontext von Low-Code-Entwicklungsplattformen

Agile Methoden der Softwareentwicklung basieren auf iterativen Prozessen und ergänzen die klassischen Entwicklungsmethoden wie das Wasserfallmodell. In vielen Fällen lösen Sie diese sogar komplett ab. Die am häufigsten eingesetzten Methoden für die agile, iterative Softwareentwicklung sind Kanban und Scrum. Im Podcast lernst du die wichtigsten Merkmale sowie Hauptunterschiede der zwei Methoden kennen. Planbarkeit, vor allem bei der Entwicklung neuer Softwarelösungen, ist extrem wichtig. Doch Fehlersuche und -behebung kosten oft Zeit und lassen sich nur ungenau zeitlich abschätzen. Low-code Entwicklungsplattformen können hier Abhilfe schaffen. Denn mit solchen Plattformen, vorausgesetzt sie sind perfekt implementiert, wird die Softwareentwicklung inklusive der Fehlersuche deutlich einfacher und damit auch planbarer. Durch extrem abstrahierte Programmiersprachen verschwimmen die Grenzen zwischen No-code, Low-code und klassischem Code (auch Pro-code) immer mehr. Auch KI wird uns zukünftig dabei helfen, Software zu entwickeln. Alle diese Themen beleuchten wir in dieser Folge für dich. Zuletzt unterziehen wir das Agile Manifesto noch dem Low-code Check. Unser Fazit: Low-code Entwicklung erfüllt alle Voraussetzungen für die agile Softwareentwicklung, da Interaktion, Iteration, Zusammenarbeit und Reaktionsschnelligkeit gegeben sind. Beim Einsatz von Low-code Entwicklungsplattformen kann man quasi gar nicht anders als agil vorgehen.

Schluss mit warten!

Nimm die Digitalisierung einfach selber in die Hand und reserviere jetzt deine Demo.