#104 | Welkom Confluent - Real‑time data op schaal

Media Thumbnail
00:00
00:00
1x
  • 0.5
  • 1
  • 1.25
  • 1.5
  • 1.75
  • 2
This is a podcast episode titled, #104 | Welkom Confluent - Real‑time data op schaal. The summary for this episode is: <p><strong>Vandaag aan tafel:</strong></p><p>Barend Baarssen</p><p>Tonny Bastiaans</p><p>Karel van der Woude</p><p>Rishi Doerga</p><p><br></p><p><strong>Timeline:</strong></p><p>00:00 – Intro</p><p>00:30 – Introductie van Rishi Durga en de overname door IBM</p><p>02:09 – Wat is Kafka?</p><p>07:40 – De technische werking</p><p>13:04 – De toegevoegde waarde van Confluent</p><p>15:03 – Mainframe offloading en latency</p><p>20:03 – Data filteren en combineren</p><p>22:05 – Confluent en AI</p><p>24:25 – Security en RBAC</p><p><br></p><p><strong>Shownotes:</strong></p><p>In deze aflevering schuift Rishi Doerga aan, Solution Engineer bij Confluent, om de recente overname door IBM en de essentie van data streaming te bespreken. De kern van het gesprek draait om Apache Kafka en hoe Confluent deze open-source technologie transformeert naar een robuust, enterprise-ready platform. Centraal staat het concept van 'events', waarbij data niet als statische eindstaat in een database wordt gezien, maar als een continue stroom van gebeurtenissen.</p><p><br></p><p>Het platform biedt een oplossing voor de beperkingen van traditionele systemen, zoals mainframes, door data direct te 'offloaden' naar een schaalbare integratielaag. Met meer dan 300 connectoren stelt Confluent bedrijven in staat om binnen enkele minuten diverse databronnen te ontsluiten en te koppelen. Door gebruik te maken van stream-processing via Flink kan deze data bovendien direct gefilterd, geaggregeerd en geanalyseerd worden met een latency van milliseconden.</p><p><br></p><p>Tot slot wordt de cruciale rol van data streaming binnen moderne AI-architecturen besproken, specifiek voor het aansturen van autonome agents. Door Kafka als asynchrone communicatielaag te gebruiken, blijven AI-ketens robuust en schaalbaar, zelfs als individuele onderdelen vertragen. Confluent voegt hier een essentiële governance-laag aan toe met Role Based Access Control en automatische encryptie, waardoor ontwikkelaars zich volledig kunnen richten op innovatie in plaats van complexe security-vraagstukken</p><p><br></p><p><strong>Links:</strong></p><p>Confluent:&nbsp;<a href="https://www.confluent.io/" rel="noopener noreferrer" target="_blank">https://www.confluent.io</a></p><p>LinkedIn Rishi Doerga:&nbsp;<a href="https://www.linkedin.com/in/rishi-doerga-393901/" rel="noopener noreferrer" target="_blank">https://www.linkedin.com/in/rishi-doerga-393901/</a></p><p>Overname in het nieuws:&nbsp;<a href="https://www.dutchitchannel.nl/news/727461/ibm-voltooit-miljardenovername-van-confluent" rel="noopener noreferrer" target="_blank">https://www.dutchitchannel.nl/news/727461/ibm-voltooit-miljardenovername-van-confluent</a></p><p><br></p><p>Op- en aanmerkingen kunnen gestuurd worden naar:&nbsp;<a href="mailto:ofjestoptdestekkererin@nl.ibm.com" rel="noopener noreferrer" target="_blank">ofjestoptdestekkererin@nl.ibm.com</a></p>

DESCRIPTION

Vandaag aan tafel:

Barend Baarssen

Tonny Bastiaans

Karel van der Woude

Rishi Doerga


Timeline:

00:00 – Intro

00:30 – Introductie van Rishi Durga en de overname door IBM

02:09 – Wat is Kafka?

07:40 – De technische werking

13:04 – De toegevoegde waarde van Confluent

15:03 – Mainframe offloading en latency

20:03 – Data filteren en combineren

22:05 – Confluent en AI

24:25 – Security en RBAC


Shownotes:

In deze aflevering schuift Rishi Doerga aan, Solution Engineer bij Confluent, om de recente overname door IBM en de essentie van data streaming te bespreken. De kern van het gesprek draait om Apache Kafka en hoe Confluent deze open-source technologie transformeert naar een robuust, enterprise-ready platform. Centraal staat het concept van 'events', waarbij data niet als statische eindstaat in een database wordt gezien, maar als een continue stroom van gebeurtenissen.


Het platform biedt een oplossing voor de beperkingen van traditionele systemen, zoals mainframes, door data direct te 'offloaden' naar een schaalbare integratielaag. Met meer dan 300 connectoren stelt Confluent bedrijven in staat om binnen enkele minuten diverse databronnen te ontsluiten en te koppelen. Door gebruik te maken van stream-processing via Flink kan deze data bovendien direct gefilterd, geaggregeerd en geanalyseerd worden met een latency van milliseconden.


Tot slot wordt de cruciale rol van data streaming binnen moderne AI-architecturen besproken, specifiek voor het aansturen van autonome agents. Door Kafka als asynchrone communicatielaag te gebruiken, blijven AI-ketens robuust en schaalbaar, zelfs als individuele onderdelen vertragen. Confluent voegt hier een essentiële governance-laag aan toe met Role Based Access Control en automatische encryptie, waardoor ontwikkelaars zich volledig kunnen richten op innovatie in plaats van complexe security-vraagstukken


Links:

Confluent: https://www.confluent.io

LinkedIn Rishi Doerga: https://www.linkedin.com/in/rishi-doerga-393901/

Overname in het nieuws: https://www.dutchitchannel.nl/news/727461/ibm-voltooit-miljardenovername-van-confluent


Op- en aanmerkingen kunnen gestuurd worden naar: ofjestoptdestekkererin@nl.ibm.com