sidion labor

Entwickler Blog

Wann nutze ich Apache Kafka?

Apache Kafka ist eine Data (Event) Streaming Plattform und lässt sich in unterschiedlichen Szenarien einsetzen. Da Apache Kafka keine leichtgewichtige Lösung ist sollte der Einsatz dieser sehr mächtigen Technologie gut begründet sein. Als Hilfe haben wir hier zwei klassischen, und einen neuen Apache-Kafka Anwendungsfall kurz beschrieben.

Hallo ChatGPT, bin ich jetzt arbeitslos?

Oder ist das Ganze nur ein großer Hype? Diese reißerische Überschrift habe ich mir selbst ausgedacht. Obwohl...nein, genau zu dieser Frage hatte ich eine hitzige Diskussion mit Freunden und Familie. Schließlich hilft die KI Masterarbeiten zu schreiben, Schulreferate sind dann ja gar kein Problem mehr, Bilder und Grafiken erzeugt sie auch und nicht zuletzt: sie programmiert. In zahlreichen Youtube Videos kann man sich ansehen, was ChatGPT so alles erzeugt. So erstaunlich das alles ist, ein generiertes HTML Formular oder ein Programm, das Zufallszahlen erzeugt, sind noch lange keine fertige Business Anwendung. Meine Neugierde war aber geweckt und die Frage aufgeworfen, ob die KI meinen Arbeitsalltag verändern kann.

Wie Parametrisierung Unit Tests übersichtlicher macht

Ein Commit, ein Pull-Request Review, ein Merge und schon ist der Code auf dem Weg in die Produktivumgebung - zumindest im Falle von Continuos Deployment. Aber auch, wenn Teile des Auslieferungsprozesses manuell funktionieren, sollte man seinen Tests vertrauen können. Das heißt, man muss die Testszenarien verstehen, den Testcode strukturiert und übersichtlich halten. Ich möchte hier ein Mittel zur Strukturierung vorstellen, dass ich in letzter Zeit sehr gerne und häufig eingesetzt habe.

Project Panama: Eine verbesserte Schnittstelle für Native Code

In manchen Situationen kann es sein, dass aus einer Java Applikation heraus ein bestehendes Programm, z.B. ein hardwarenaher Treiber aufgerufen werden muss. Oder dass aus Performance Gründen auf nativen Code ausgewichen werden muss. Bisher musste dabei auf JNI zurückgegriffen werden. Mit dem Project Panama bündelt das OpenJDK verschiedene JEPs, um eine einheitliche und leicht verwendbare API dafür zu bieten.

Stream all the way down

Manchmal gibt es Situationen in denen sehr große Datensätze (~ 100.000) über eine RESTful Schnittstelle übertragen werden müssen. Dann steigt bei Java, wie bei jeder anderen Sprache auch, der Speicherverbrauch an, um das endgültige JSON-Objekt im Speicher zu erzeugen, bevor es übertragen werden kann. Hier soll eine andere Vorgehensweise vorgestellt werden, die den Speicherverbrauch stark reduzieren kann.