Entwickler Blog
Stream all the way down
Manchmal gibt es Situationen in denen sehr große Datensätze (~ 100.000) über eine RESTful Schnittstelle übertragen werden müssen. Dann steigt bei Java, wie bei jeder anderen Sprache auch, der Speicherverbrauch an, um das endgültige JSON-Objekt im Speicher zu erzeugen, bevor es übertragen werden kann. Hier soll eine andere Vorgehensweise vorgestellt werden, die den Speicherverbrauch stark reduzieren kann.
Multi-Plattform Docker-Images mit Github Actions bauen
Mit der zunehmenden Verbreitung von Computern mit ARM64 Architektur, wie zum Beispiel Raspberry Pi, AWS Gravitron oder Apple M1, zur Entwicklung und Betrieb von Anwendungen müssen auch Build-Pipelines für Containerimages etabliert werden, die nicht nur für eine, sondern mehrere Plattformen Images bauen kann.
IoT Geräte mit OIDC individuell authentifizieren
Jedes IoT Gerät, sei es nun ein Sensor oder ein FireTV Stick, benötigt einen Server mit dem es Daten austauschen kann. Und da nicht jedes beliebige Gerät Informationen mit dem Server austauschen soll, benötigt es eine Möglichkeit sich beim Server zu authentifizieren. Bei manchen Geräten kann man die Zugangsdaten bereits bei der Auslieferung fest hinterlegen, da sie vom Endbenutzer nicht mehr weiter konfiguriert werden müssen. Bei anderen Geräten ist allerdings eine individuelle Kennung bzw. Benutzeraccount notwendig.
Legacy-Systeme mit Apache Pulsar verbinden
Messaging-Systeme sind am leistungsfähigsten, wenn sie problemlos mit externen Systemen wie Datenbanken und anderen Messaging-Systemen verwendet werden können. Mit Pulsar IO-Konnektoren können Sie problemlos Konnektoren erstellen, bereitstellen und verwalten, die mit externen Systemen interagieren.
Cloud Native CI/CD mit Tekton
Ein neuer Ansatz für die Build Pipeline.
Was wäre, wenn man für die Build Pipeline keinen Server mehr bräuchte?
Die ganze Pipeline könnte überall ausgeführt werden, sogar auf den PCs der Entwickler.
Tekton ist ein Open Source Projekt der Continuous Delivery Foundation, dass die Build Pipeline in den
Kubernetes Cluster verlagert. Die Pipeline wird über Kubernetes Resourcen deklariert.
Sie besteht damit nur noch aus ein paar Dateien, die auf jedem Kubernetes Cluster deployed und ausgeführt werden können.