top of page
Buscar
Foto del escritorNetec

Apache Kafka, ¿la próxima novedad en la banca?

El éxito de las instituciones financieras en los próximos años dependerá de qué tan bien apliquen la tecnología para agregar valor y transformar los business as usual (negocios convencionales). Las instituciones bancarias pueden desarrollar un nivel de participación del cliente y eficiencia operativa nunca antes vista a través de la aplicación de los avances tecnológicos como la nube, inteligencia artificial y transmisión de datos en los sistemas y procesos existentes.

Uno de estos avances tecnológicos es Apache Kafka, un proyecto de intermediación de mensajes de código abierto escrito en Java y Scala, desarrollado por LinkedIn y donado a la Apache Software Foundation. Con su arquitectura de transmisión de eventos en tiempo real, la demanda de Apache Kafka se encuentra en auge en la industria financiera, impulsada por su aplicación en una amplia gama de casos de uso:

1. Alimentación de datos para informes posteriores y análisis de datos

La mayor parte de las operaciones del sistema bancario central implican la generación de datos para informes posteriores y el análisis de datos. Este procesamiento de cargas de trabajo usualmente se realiza por las noches, una vez que la carga de trabajo en línea ha disminuido. Las operaciones del inicio del día no pueden iniciar hasta que el proceso de generación de datos se complete, por lo que este proceso está diseñado y secuenciado de manera minuciosa para evitar problemas de coherencia de datos y concurrencia. Incluso, un problema del sistema o un día de alto volumen de transacciones u operación de fin de mes podría hacer que la carga de trabajo por lotes se extienda al horario comercial, lo que afectaría la operación del día siguiente.

Esta situación puede ser abordada fácilmente mediante la adopción de la función de análisis y arquitectura de transmisión de datos en tiempo real de Apache Kafka, ya que permite la construcción de canalizaciones de datos a través de la API de Kafca Connect. Con esta función, los datos de los sistemas bancarios centrales pueden migrarse a Kafka, y una vez que están disponibles ahí, el procesamiento de secuencias y las transformaciones pueden implementarse usando la API de Kafka Streams.


2. Inscripción digital automatizada y comunicación con el cliente

La reserva de cuentas en línea se está convirtiendo en un fenómeno común en el espacio bancario. Como parte de esto, los clientes eligen las credenciales de inicio de sesión para la banca digital según sus preferencias. La reserva de la cuenta puede parecer simple pero detrás de escena ocurren muchos procesos complejos como la verificación de identidad, notificaciones por correo electrónico, entre otros. Aunque algunos de estos se realizan de forma secuencial en un flujo de trabajo, se pueden descargar procesos como el aprovisionamiento de clientes.

El aprovisionamiento de clientes puede comenzar en paralelo después de la reserva de la cuenta a través de la arquitectura de microservicios impulsada por eventos y la transmisión de datos a través de Apache Kafka. El proceso paralelo se puede lograr haciendo que un productor de eventos agilice la información de reserva a Apache Kafka de forma asíncrona para que la inscripción digital consuma información y proporcione las credenciales bancarias digitales adecuadas.


3. Enrutamiento de mensajes SWIFT

El enrutamiento de mensajes SWIFT es una de las tareas más complejas de la banca, ya que los bancos intercambian varios mensajes a través de la red SWIFT. Usualmente, los bancos utilizan un centro de enrutamiento centralizado para enrutar todos los mensajes SWIFT entrantes a sus respectivos sistemas administrativos basados ​​en algoritmos complejos. Algunos requieren de un enrutamiento a múltiples sistemas en diferentes frecuencias y prioridades. Tareas tan complejas pueden mantener alerta al equipo de administración de SWIFT, ya que estos centros de enrutamiento, diseñados con una arquitectura de integración tradicional como ESB o MQ o una combinación de ambos, no son lo suficientemente flexibles para implementar nuevas soluciones rápidamente.

El diseño de Apache Kafka le permite abordar fácilmente esta complejidad de integración: Su solución distribuida de mensajería de publicación-suscripción reduce notablemente la sobrecarga de integración de múltiples sistemas al categorizar los mensajes SWIFT en temas, almacenarlos de manera tolerante a fallas y permitir que múltiples consumidores los lean, sin interferir entre sí. Eso contrasta radicalmente con muchos sistemas de colas en los que una vez que un cliente consume un mensaje, no está disponible para ningún otro. La función de retención de mensajes duradera de Kafka incluso permite a los consumidores trabajar en su propio tiempo. Al emplear esta función, los mensajes se pueden retener en los temas durante un período configurable. Si un consumidor se retrasa o decide consumir datos en una frecuencia específica, no hay peligro de perder datos. Los consumidores pueden incluso usar KSQL para filtrar mensajes que no son relevantes para ellos.


El modelo bancario tradicional se encuentra bajo mucha presión en la actualidad gracias al surgimiento de un ecosistema bancario digital con actores bancarios y no bancarios. Para ocupar una posición en el ecosistema de banca digital se requiere un nuevo conjunto de características que podrán adoptarse utilizando tecnologías como Apache Kafka.

En Netec estamos comprometidos en ayudar a las empresas a adoptar las nuevas tecnologías, así como a desarrollar y dominar todas sus herramientas. Elija en Netec la capacitación que más se adecúe a sus necesidades empresariales. Conozca nuestra oferta completa y contáctenos para apoyarlo en su transformación digital y en el logro de sus objetivos.

264 visualizaciones0 comentarios

Entradas recientes

Ver todo

Comments


bottom of page