inteligencia artificial

Gallos, I.A y posverdad

Compartí esta noticia !

El pasado domingo, la cantante estadounidense Alicia Keys, protagonizaría un espectáculo en el entretiempo del “SuperBowl” de la NFL (Liga Nacional de Fútbol Americano). Dicho momento captaría de manera abrupta la atención de los oyentes, tanto virtuales como presentes, producto de un error humano cometido por parte de la cantante. En el primer verso de aquella canción, la neoyorquina se desafinaría por completo, desatando tanto críticas negativas como empáticas en la red social Twitter (X). La noticia se volvería viral, no por el “gallo” en sí, sino por el intento de ocultarlo por parte de YouTube y la misma NFL que, intentando arreglarlo, terminaron por desatar el escándalo.

Horas más tarde, luego del Show, la cuenta oficial de la NFL debía de publicar en su cuenta oficial la grabación del evento, pero algo no cuadraba. No se trataría de algo que le agregaron al video, sino de que es lo que “ya no estaba” en el mismo. En el video, el error de Alicia Keys habría desaparecido como por arte de magia, mostrando una versión “sin gallo” de la canción, contrastando con el recuerdo presencial de las miles de personas que espectaron el traspié de primera mano. A esto se le suma, que cualquier intento por publicar el video original sería instantáneamente reprimido por parte de YouTube, dejando la versión alterada como la “oficial” o “lo que si pasó”.

Más allá de haber trastocado la cualidad “humana” del error cometido por la cantante, esta pequeña corrección insignificante haría saltar las alarmas en materia de posverdad. Bien sabemos que hoy la verdad es más fácil de alterar que nunca, desde las tormentas de Fakenews hasta la frágilvulnerabilidad de nuestras mentes a la sucesión de una verdad alterada, podemos entender que tan fácil es trastornar la realidad en esta modernidad virtual. Conocer los últimos avances en materia de inteligencia artificial le condimentan de terror a la amplitud de posibilidades que caracteriza a los “hacedores de verdad” en un mundo donde los consumidores de contenido, constantemente demandan la opinión de los intérpretes (terceros) de los eventos, diarios, youtubers, periodistas, o incluso influencers.

Podemos observar cómo, por fuera de la descares que caracteriza a los encargados de difundir los hechos al alterar la realidad (normalmente influidos por fuerzas de poder o simplemente por el dinero suficiente), los consumidores de noticias, tienden a verse atraídos por consumir variaciones preferentemente positivas y preprocesadas por sus difusores favoritos. Es que acaso… ¿Simplemente preferimos la “pulpa sin semilla” sin importar el precio a pagar?

En ciencias políticas se conoce a esta estrategia como posverdad, un resultado convenientemente manipulado por un estrato de poder de turno, que, busca implantar una idea o romper con alguna otra en la sociedad. Las alteraciones convenientes de los hechos reales no son unanovedad, sino que se remonta hasta tiempos inmemoriales. Un claro ejemplo lo fue el repudio del Estalinismo hacia León Trotsky, el cual fue llevado a tal extremo de exiliar al líder revolucionario, como a borrarlo de la historia misma de su país. Aquí esta la médula de la cuestión; Trotsky fue borrado de fotos, fue censurado de discursos y fue difamado en el propio país que le vio triunfar, a esto hay que agregarle el connotativo no menos importante de haberse logrado hace casi cien años.

Del otro lado de la trinchera, el régimen fascista liderado por el Fürer de turno, delegaría como ministro de propaganda al mismísimo Joseph Goebbels, cuya consigna fundamental supo ser “miente, miente, miente, que algo quedará”. No es acaso un matiz más en este oleo sobre lienzo que llamamos “posmodernismo”. Me fascina la habilidad humana y la dedicación destinados al estudio de la propia psicología en favor de la conveniencia de algún incógnito. Es que somos profesionales en convencernos de lo que queramos escuchar.

No es “un gallo” y ya, es un síntoma de una realidad subyacente (cada vez más peligrosa) que, tarde o temprano, termina por llevarnos puestos a todos. Hoy basta con repetir una mentira la suficiente cantidad de veces para que se convierta mágicamente en una verdad socialmente aprobada, aplastando a cualquiera que se muestre en contra, con el arma más eficaz del postmodernismo, ignorarle.

Con la tecnología actual, eliminar un nombre de la historia es pan comido “algo demasiado fácil”, pues hoy podemos desdibujar un discurso, haciéndole decir otra cosa. Esto se veía reflejado en las fakenews, caracterizadas por las citas fuera de contexto y la manipulación de los hechos en función de una dirección normalmente política. Pero ahora ya ni siquiera hace falta mentir, pueden usar mi rostro y mover mis labios para ponerme a decir cualquier irracionalidad, pueden censurar mi respuesta en las redes sociales o amenazarme en privado.

Pero lo peor de todo este desastre no es ni la tecnología ni la atroz aplicación de las mismas a conveniencia, sinó la aprobación colectiva y masiva de dicha utilización, tanto en nombre del progreso como de la comodidad del ciudadano promedio, que, mientras las noticias le sean satisfactorias a su oído, no mostrará queja alguna. Lo que vuelve poderosos a los peligrosos es la fé ciega de sus adeptos que, carentes de pensamiento crítico, defienden a muerte a su propio verdugo.

Compartí esta noticia !

DigiCert analiza el impacto de la Inteligencia Artificial en la seguridad digital

Compartí esta noticia !

Con un tamaño de mercado estimado de 102 mil millones de dólares para 2032, no es ningún secreto que la inteligencia artificial (IA) está arrasando en todas las industrias. Sin embargo, la IA requiere datos, y de dónde provienen esos datos, cómo se procesan y qué resulta de esos procesos, requerirá un sentido de identidad y seguridad. Es comprensible que muchas personas estén preocupadas por la seguridad de esos datos. Una encuesta de 2023 encontró que el 81% de los encuestados están preocupados por los riesgos de seguridad asociados con ChatGPT y la IA generativa, mientras que solo el 7% se mostró optimista de que las herramientas de IA mejorarían la seguridad en Internet. Por lo tanto, las medidas estrictas de ciberseguridad serán aún más críticas con las tecnologías de inteligencia artificial.

“Existen innumerables oportunidades para aplicar la IA en la ciberseguridad para mejorar la detección de amenazas, la prevención y la respuesta a incidentes. Por lo tanto, las empresas deben comprender las oportunidades y debilidades de la IA en ciberseguridad para adelantarse a las próximas amenazas”, afirmó Avesta Hojjati – Vicepresidente de Ingeniería y Jefe de I+D de DigiCert.

Usando la IA

El lado positivo es que la IA puede ayudar a transformar la ciberseguridad con respuestas más efectivas, precisas y rápidas. Algunas de las formas en que se puede aplicar la IA a la ciberseguridad incluyen:

· Reconocimiento de patrones para reducir falsos positivos: la IA es excelente en el reconocimiento de patrones, lo que significa que puede detectar mejor anomalías y proporcionar un análisis de comportamiento y detectar amenazas en tiempo real. De hecho, un estudio del Ponemon Institute realizado en 2022 encontró que las organizaciones que utilizan sistemas de detección de intrusiones impulsados por IA experimentaron una reducción del 43 % en los falsos positivos, lo que permitió a los equipos de seguridad centrarse en amenazas genuinas. Además, se demostró que las soluciones de seguridad del correo electrónico basadas en IA reducen los falsos positivos hasta en un 70%.

· Permitir la escala mejorando las capacidades humanas: la IA se puede utilizar para mejorar las capacidades humanas, proporcionar un tiempo de respuesta más ágil y ofrecer escalabilidad. La única limitación a la escala será la disponibilidad de datos. Además, los chatbots de IA se pueden utilizar como asistentes virtuales para ofrecer soporte de seguridad y aliviar parte de la carga de los agentes humanos.

· Acelerar la respuesta y recuperación ante incidentes: la IA puede automatizar acciones y tareas rutinarias basadas en capacitación previa y recopilación de datos multipunto, ofrecer tiempos de respuesta más rápidos y reducir las brechas de detección. La IA también puede automatizar los informes, ofreciendo información a través de consultas en lenguaje natural, simplificando los sistemas de seguridad y brindando recomendaciones para mejorar futuras estrategias de ciberseguridad.

· Capacitación sobre phishing en sandbox: la IA generativa puede crear escenarios de phishing realistas para capacitación práctica en ciberseguridad, fomentando una cultura de vigilancia entre los empleados y preparándolos para las amenazas del mundo real.

Alerta roja

Ahora se ve que los atacantes utilizan la IA en sus ataques. A continuación 3 ejemplos:

  1. Campañas de malware automatizadas con IA: los ciberdelincuentes pueden emplear IA generativa para crear malware sofisticado que ajuste el comportamiento para evitar la detección. Estas cepas de malware “inteligentes” son más difíciles de predecir y controlar, lo que aumenta el riesgo de interrupciones generalizadas del sistema y violaciones masivas de datos.
  2. Ataques de phishing avanzados: la IA generativa tiene la capacidad de aprender e imitar el estilo de escritura y la información personal de un usuario, lo que hace que los ataques de phishing sean considerablemente más persuasivos. Los correos electrónicos de phishing personalizados, que parecen provenir de contactos confiables o instituciones acreditadas, pueden engañar a las personas para que divulguen información confidencial, lo que representa una amenaza sustancial para la ciberseguridad personal y corporativa.
  3. Deepfakes realistas: gracias a la IA generativa, los actores malintencionados ahora pueden crear deepfakes: falsificaciones de imágenes, audio y vídeos muy convincentes. Los deepfakes plantean un riesgo importante de campañas de desinformación, actividades fraudulentas y suplantación de identidad. Imagine un vídeo notablemente realista de un director ejecutivo anunciando una quiebra o una grabación de audio fabricada de un líder mundial declarando la guerra. Estos escenarios ya no se limitan al ámbito de la ciencia ficción y tienen el potencial de causar perturbaciones significativas.

Además, la IA requiere una gran cantidad de datos y las empresas deben limitar exactamente lo que se comparte, ya que crea otro tercero donde los datos podrían verse afectados. Incluso el propio ChatGPT sufrió una violación de datos debido a una vulnerabilidad en la biblioteca de Redis, que permite a los usuarios acceder al historial de chat de otros. OpenAI resolvió rápidamente el problema, pero resalta los riesgos potenciales para los chatbots y los usuarios. Algunas empresas han comenzado a prohibir por completo el uso de ChatGPT para proteger datos confidenciales, mientras que otras están implementando políticas de IA para limitar los datos que se pueden compartir con la IA.

¿Cómo generar confianza digital en la IA con PKI?

El uso de tecnologías como la infraestructura de clave pública (PKI) puede desempeñar un papel fundamental en la protección contra amenazas emergentes relacionadas con la IA, como las falsificaciones profundas, y en el mantenimiento de la integridad de las comunicaciones digitales.

Por ejemplo, un consorcio de actores líderes de la industria, incluidos Adobe, Microsoft y DigiCert, están trabajando en un estándar conocido como Coalición para la procedencia y autenticidad del contenido (C2PA). Esta iniciativa introdujo un estándar abierto diseñado para abordar el desafío de verificar y confirmar la legitimidad de los archivos digitales.

C2PA aprovecha PKI para generar un rastro indiscutible, lo que permite a los usuarios discernir entre medios genuinos y falsificados. Esta especificación brinda a los usuarios la capacidad de determinar la fuente, el creador, la fecha de creación, la ubicación y cualquier modificación de un archivo digital. El objetivo principal de este estándar es fomentar la transparencia y la confiabilidad en los archivos multimedia digitales, especialmente dada la creciente dificultad para distinguir el contenido generado por IA de la realidad en el entorno actual.

“En resumen, la IA desarrollará muchas oportunidades en ciberseguridad y apenas se ha rozado la superficie de lo que puede hacer. La IA se utilizará como herramienta tanto ofensiva como defensiva para prevenir y provocar ciberataques. Pero la clave es que las empresas sean conscientes de los riesgos y empiecen a implementar soluciones ahora, teniendo en cuenta que la IA no puede sustituir completamente a los humanos”, concluye Hojjati.

Compartí esta noticia !

Bill Gates planteó un “gobierno global” para controlar los riesgos potenciales de la Inteligencia Artificial

Compartí esta noticia !

En una conversación reciente entre dos figuras claves del mundo tecnológico, Bill Gates y Sam Altman, el cofundador de Microsoft planteó la idea de un “gobierno global” como posible solución para regular el avance imparable de la inteligencia artificial (IA). Durante el podcast Unconfuse Me de Gates, se discutió acerca de la necesidad inminente de un ente regulatorio global capaz de evitar posibles abusos de la IA.

El magnate tecnológico, al dialogar con Altman, CEO de OpenAI, señaló el desafío de detener prácticas peligrosas a nivel mundial e insinuó la posibilidad de un gobierno global que aborde esta problemática.

Gates se mostró esperanzado en la idea de un gobierno global que haga frente a los peligros potenciales de la IA y destacó que, aunque cooperar en temas como el clima y el terrorismo ha demostrado ser desafiante para los gobiernos actuales, un esfuerzo conjunto podría ser crucial para la gestión de esta tecnología emergente.

Gates es un entusiasta de la inteligencia artificial, y ahora predice que la tecnología será transformadora para todos en los próximos cinco años.

El auge de la inteligencia artificial ha suscitado el temor de que esta tecnología elimine millones de puestos de trabajo en todo el mundo. El Fondo Monetario Internacional informó esta semana que alrededor del 40% de los puestos de trabajo de todo el mundo podrían verse afectados por el auge de la IA.

Gates no está necesariamente en desacuerdo con esa idea, pero cree que la historia demuestra que con cada nueva tecnología surgen el miedo y luego una nueva oportunidad.

“Como nos pasó [con] la productividad agrícola en 1900, la gente se preguntaba: ‘Oye, ¿qué va a hacer la gente?’ De hecho, se crearon muchas cosas nuevas, muchas categorías laborales nuevas, y estamos mucho mejor que cuando todo el mundo se dedicaba a las labores del campo”, dijo Gates. “Esto será así”.

En una entrevista con Fareed Zakaria de CNN el martes, Gates predijo que la IA hará la vida de todos más fácil, señalando específicamente la ayuda a los médicos a hacer su papeleo, que es “parte del trabajo que no les gusta”. “Podemos hacer que sea muy eficiente”.

Dado que no es necesario “mucho hardware nuevo”, dijo Gates, el acceso a la IA se hará a través del “teléfono o el PC que ya tienes conectado a través de la conexión a internet que ya tienes”.

También dijo que las mejoras con el ChatGPT-4 de OpenAI eran “espectaculares” porque puede “esencialmente leer y escribir”, por lo que es “casi como tener un trabajador de cuello blanco para ser tutor, dar consejos de salud, ayudar a escribir código, ayudar con las llamadas de soporte técnico”. Dijo que incorporar esa tecnología a los sectores educativo o médico será “fantástico”.

Microsoft mantiene una asociación multimillonaria con OpenAI. Gates sigue siendo uno de los mayores accionistas de Microsoft.

“El objetivo de la Fundación Gates es asegurarse de que la demora entre beneficiar a la gente de los países pobres y llegar a los países ricos sea muy corta”, dijo Gates a Zakaria en Davos con motivo del Foro Económico Mundial. “Después de todo, la escasez de médicos y profesores es mucho más aguda en África que en Occidente”.

El FMI, en su informe de esta semana, tenía una visión mucho menos optimista. El grupo afirmó que la IA agravaría la desigualdad si no hay intervención de los políticos.

Donar su riqueza

Gates tiene una riqueza de US$ 140.000 millones, lo que le convierte en la cuarta persona más rica del planeta, según el Índice de Multimillonarios de Bloomberg. Pero probablemente seguiría siendo la persona más rica del mundo si no se hubiera comprometido a donar todo su dinero.

Gates dijo a CNN que no le preocupa perder su riqueza.

“Tengo dinero más que suficiente para mi propio consumo”, dijo Gates cuando Zakaria le preguntó cómo iban sus esfuerzos filantrópicos. “Me estoy esforzando por bajar en la lista y estaré orgulloso cuando caiga por completo”.

El cofundador de Microsoft y su exesposa, Melinda French Gates, se han comprometido a donar la mayor parte de su fortuna a la fundación que crearon juntos hace 20 años, así como a otras iniciativas filantrópicas.

En 2022, Gates anunció la intención de la fundación de donar US$ 9.000 millones anuales hasta 2026. Dijo que está “emocionado de que eso tenga tanto impacto” en las organizaciones a las que lo donará.

Dijo que él y socios como Warren Buffett han donado unos US$ 100.000 millones a su fundación. A un ritmo de US$ 9.000 millones al año, Gates prevé que habrá donado todo su dinero en unos 20 años.

Compartí esta noticia !

¿Son únicas las huellas dactilares? En realidad no, según un estudio basado en la inteligencia artificial

Compartí esta noticia !

CNN – “¿Crees que cada huella dactilar es realmente única?”.

Es la pregunta que le hizo un profesor a Gabe Guo durante una charla informal mientras estaba atrapado en casa durante los confinamientos a causa del covid-19, esperando para empezar su primer año en la Universidad de Columbia. “Poco podía imaginar que aquella conversación marcaría el rumbo de mi vida durante los tres años siguientes”, afirma Guo.

Guo, ahora estudiante de último curso en el departamento de Informática de Columbia, dirigió un equipo que realizó un estudio sobre el tema, con el profesor Wenyao Xu, de la Universidad de Buffalo, como uno de sus coautores. El estudio, publicado esta semana en la revista Science Advances, parece poner en entredicho una verdad aceptada desde hace tiempo sobre las huellas dactilares: según Guo y sus colegas, no todas son únicas.

De hecho, varias revistas rechazaron el trabajo antes de que el equipo apelara y consiguiera que Science Advances lo aceptara. “Al principio hubo mucha oposición por parte de la comunidad forense”, recuerda Guo, que no tenía experiencia en este campo antes del estudio.

“En la primera o las dos primeras versiones de nuestro artículo, dijeron que es bien sabido que no hay dos huellas dactilares iguales. Supongo que eso ayudó mucho a mejorar nuestro estudio, porque fuimos introduciendo más datos (y aumentando la precisión) hasta que, al final, las pruebas fueron incontrovertibles”, explica.

Una nueva mirada a las huellas

Para llegar a sus sorprendentes resultados, el equipo empleó un modelo de inteligencia artificial llamado red contrastiva profunda, que se utiliza habitualmente para tareas como el reconocimiento facial. Los investigadores le dieron su propio toque y lo alimentaron con una base de datos del gobierno de EE.UU. de 60.000 huellas dactilares en pares que a veces pertenecían a la misma persona (pero de dedos distintos) y a veces pertenecían a personas distintas.

Mientras trabajaba, el sistema basado en IA descubrió que las huellas dactilares de diferentes dedos de la misma persona compartían grandes similitudes y, por tanto, era capaz de decir cuándo las huellas pertenecían al mismo individuo y cuándo no, con una precisión para un solo par que alcanzaba un máximo del 77%, lo que parecía refutar que cada huella dactilar es “única”.

“Encontramos una explicación rigurosa de por qué esto es así: los ángulos y curvaturas en el centro de la huella dactilar”, dijo Guo.

Durante cientos de años de análisis forense, añadió, la gente se ha fijado en diferentes rasgos llamados “puntos característicos”, las ramificaciones y los puntos finales en las crestas de las huellas dactilares que se utilizan como marcadores tradicionales para la identificación de huellas dactilares. “Son excelentes para cotejar huellas dactilares, pero no son fiables para encontrar correlaciones entre huellas dactilares de la misma persona”, explica Guo. “Y esa es la idea que teníamos”.

Los autores afirman que son conscientes de los posibles sesgos de los datos. Aunque creen que el sistema de IA funciona de forma muy parecida en todos los géneros y razas, para que el sistema sea utilizable en la medicina forense real, se requiere una validación más cuidadosa mediante el análisis de una base de datos de huellas dactilares más grande y amplia, según el estudio.

No obstante, Guo confía en que el descubrimiento pueda mejorar las investigaciones criminales:

“La aplicación más inmediata es que puede ayudar a generar nuevas pistas para casos sin resolver, en los que las huellas dactilares dejadas en la escena del crimen son de dedos distintos a los archivados”, dijo. “Pero, por otro lado, esto no solo ayudará a atrapar a más delincuentes. También ayudará a personas inocentes que no tendrán que seguir siendo investigadas innecesariamente. Y creo que eso es una victoria para la sociedad”.

¿Una exageración?

El uso de técnicas de aprendizaje profundo en imágenes de huellas dactilares es un tema interesante, según Christophe Champod, profesor de ciencias forenses en la Escuela de Justicia Penal de la Universidad de Lausana, en Suiza. Sin embargo, Champod, que no participó en el estudio, dijo que no cree que el trabajo haya descubierto nada nuevo.

“Su argumento de que estas formas están en cierto modo correlacionadas entre los dedos se conoce desde los inicios de la dactiloscopia, cuando se hacía manualmente, y se ha documentado durante años”, dijo. “Creo que han sobrevalorado su artículo, por falta de conocimiento, en mi opinión. Me alegro de que hayan redescubierto algo conocido, pero en esencia, es una exageración”.

En respuesta, Guo dijo que nadie había cuantificado o utilizado sistemáticamente las similitudes entre las huellas dactilares de distintos dedos de una misma persona hasta el punto en que lo ha hecho el nuevo estudio.

“Somos los primeros en señalar explícitamente que la similitud se debe a la orientación de la cresta en el centro de la huella dactilar”, dijo Guo. “Además, somos los primeros en intentar emparejar huellas dactilares de distintos dedos de la misma persona, al menos con un sistema automatizado”.

El sistema utilizado en el estudio para identificar similitudes entre huellas dactilares podría ser útil en el análisis de escenas del crimen, según los autores. Crédito: Gabe Guo/Ingeniería de Columbia

Simon Cole, catedrático del departamento de Criminología, Derecho y Sociedad de la Universidad de California en Irvine, se mostró de acuerdo en que el trabajo es interesante, pero afirmó que se exagera su utilidad práctica. Cole tampoco participó en el estudio.

“No estábamos ‘equivocados’ sobre las huellas dactilares”, dijo refiriéndose a los expertos forenses. “La afirmación no probada pero intuitivamente cierta de que no hay dos huellas dactilares ‘exactamente iguales’ no se refuta al descubrir que las huellas dactilares son similares. Siempre se ha sabido que las huellas dactilares de personas diferentes, así como de la misma persona, son similares”.

Según el artículo, el sistema podría ser útil en escenas del crimen en las que las huellas dactilares encontradas sean de dedos distintos a los que figuran en el registro policial, pero Cole afirma que esto solo puede ocurrir en casos excepcionales, porque cuando se toman huellas se registran de forma rutinaria los 10 dedos y a menudo las palmas de las manos. “No me queda claro cuándo piensan que las fuerzas del orden solo tendrán registradas algunas de las huellas dactilares de un individuo, pero no todas”, afirmó.

El equipo que realizó el estudio confía en los resultados y ha abierto el código de inteligencia artificial para que otros puedan comprobarlo, una decisión que tanto Champod como Cole elogiaron. Pero Guo afirma que la importancia del estudio va más allá de las huellas dactilares.

“No se trata solo de investigación forense, sino de inteligencia artificial. Los humanos hemos observado las huellas dactilares desde que existimos, pero nadie se había dado cuenta de esta similitud hasta que hicimos que nuestra IA las analizara. Esto demuestra el poder de la IA para reconocer y extraer automáticamente características relevantes”, afirma.

“Creo que este estudio es solo la primera ficha de dominó en una enorme secuencia de estas cosas. Veremos cómo la gente utiliza la IA para descubrir cosas que estaban literalmente escondidas a plena vista, justo delante de nuestros ojos, como nuestros dedos”.

Compartí esta noticia !

AI Hub, la nueva tecnología que genera conversaciones comerciales basadas en IA

Compartí esta noticia !

La plataforma global de comunicaciones en la nube Infobip ha lanzado AI Hub, una nueva y actualizada herramienta que ayuda a las empresas a crear experiencias conversacionales integrales y fluidas en todo el recorrido del cliente. 

AI Hub, integra análisis avanzados, IA y funciones de IA generativa con la cartera principal de software como servicio (SaaS) de Infobip, apoya la transformación digital. Permite a las empresas y marcas construir recorridos conversacionales del cliente de extremo a extremo, mejorando el compromiso del cliente ya sea para marketing, ventas o soporte e impulsando el crecimiento del negocio con el mínimo esfuerzo y sin conocimientos sobre códigos o programación.

Para el lanzamiento, Infobip integró el modelo ChatGPT de OpenAI a través de Microsoft Azure OpenAI Service en su Infobip AI Hub para ayudar a garantizar que los modelos lingüísticos utilizados sean seguros y que los datos de los consumidores no estén expuestos a potenciales amenazas de seguridad.

Con esta tecnología las empresas pueden, por ejemplo:

-Utilizar un copiloto de IA para ayudar a navegar por la plataforma y cumplir con un flujo de trabajo automatizado para tareas, como la generación del viaje del cliente, el desarrollo de campañas de marketing adecuadas, lo que permitirá a las marcas aumentar las conversiones, las ventas o reducir los costos mediante la creación de un viaje de compromiso con el cliente optimizado de extremo a extremo utilizando GenAI, por ejemplo, flujos de compra en los que es posible volver a involucrar al consumidor a través de canales de chat para seguir trayéndolos de vuelta a los flujos de compra.

-Crear las campañas adecuadas a través de los canales de redes sociales y campañas de correo electrónico para promocionar productos utilizando IA generativa para crear el borrador del texto y los elementos visuales.

-Garantizar la fidelidad del cliente a través de un programa de fidelización inteligente, con análisis avanzados, comportamiento del cliente y seguimiento del sentimiento, además de predicción de bajas.

-Aprovechar los conocimientos de los clientes mediante IA, proporcionando información detallada sobre su perfil y prediciendo sus próximas acciones.

-Asistir a los agentes proporcionándoles información analizada por IA, resúmenes de llamadas anteriores y sugerencias de respuesta.

-Crear experiencias conversacionales en chatbots con agentes virtuales, entrenados y limitados a los datos específicos del cliente.

Las empresas y las marcas pueden utilizar AI Hub de manera completa o para complementar otras herramientas como Salesforce, HubSpot y más. El lanzamiento apoya la estrategia de Infobip de convertirse en un ecosistema conversacional que permita la transformación digital en la era conversacional. Infobip ayudó recientemente a la empresa de seguros digitales LAQO a crear un servicio de atención al cliente 24/7 a través de un chatbot habilitado para GPT que proporciona respuestas rápidas, accesibles y personalizadas a las consultas de los clientes. El chatbot libera tiempo de los agentes de atención al cliente para centrarse en cuestiones más complejas y ofrece un servicio de atención al cliente escalable.

Silvio Kutić, CEO de Infobip, ha declarado: “El viaje del cliente está evolucionando de una experiencia fragmentada a través de múltiples canales a una experiencia conversacional en un solo lugar. La infraestructura en la nube, las aplicaciones de chat conversacional y la IA generativa permiten ahora las conversaciones entre empresas y consumidores, enriqueciendo las experiencias de los clientes y consolidando recorridos dispares de los clientes en una experiencia sin fisuras. Para facilitar esta transición, hemos lanzado AI Hub, que proporciona una plataforma integral a lo largo de todo el recorrido del cliente, integrando y actualizando las actuales soluciones SaaS de Infobip con IA y conectando el marketing, con las ventas y el soporte”.

Compartí esta noticia !

Categorías

Solverwp- WordPress Theme and Plugin