Noticias

Microsoft impulsa la confianza en la IA para empresas con nuevas herramientas

Agencias | Miércoles 19 de febrero de 2025

Desafíos en el Desarrollo de IA Generativa

La inteligencia artificial generativa está transformando diversas industrias, pero muchas empresas se encuentran ante serios obstáculos al intentar desarrollar y desplegar herramientas seguras. En un entorno tecnológico que evoluciona constantemente, los líderes empresariales expresan su preocupación por los riesgos asociados, tales como la generación de información errónea o dañina, la filtración de datos sensibles, el riesgo de ciberataques y el incumplimiento de normativas de privacidad. Sin embargo, a menudo carecen de los recursos y conocimientos necesarios para manejar estos desafíos adecuadamente.

«Las organizaciones valoran la seguridad y la protección, además de la calidad y el rendimiento de sus aplicaciones de IA», declaró Sarah Bird, Chief Product Officer de IA Responsable en Microsoft. «No obstante, muchas no saben qué pasos seguir para hacer que su IA sea confiable o carecen de las herramientas adecuadas para lograrlo».

Para enfrentar esta problemática, Microsoft ha desarrollado una serie de herramientas y servicios que permiten a los desarrolladores crear y lanzar sistemas de IA confiables con un enfoque en la seguridad, privacidad y protección. Estas soluciones han facilitado a numerosas organizaciones implementar tecnología en entornos complejos y altamente regulados, abarcando desde asistentes de IA que resumen historiales médicos hasta chatbots que ofrecen asesoramiento fiscal.

Estrategias para Optimizar el Desarrollo

Además, este enfoque está optimizando el trabajo de los desarrolladores, ayudándoles a ser más eficientes”, destacó Mehrnoosh Sameki, manager principal de producto de IA Responsable en Microsoft.

«Aunque desarrollar la primera versión de una aplicación de IA generativa es relativamente sencillo, muchas empresas se frenan antes del lanzamiento por temor a los riesgos o por incertidumbre sobre el cumplimiento normativo», agregó Sameki. «Estas herramientas agilizan la implementación y proporcionan tranquilidad al facilitar las pruebas y la protección de la aplicación».

Dichas soluciones son parte del enfoque integral que Microsoft aplica para fomentar un desarrollo responsable de la IA. La compañía se apoya en su experiencia para identificar, medir, gestionar y monitorear los riesgos asociados a sus propios productos. Cada paso del proceso es llevado a cabo con rigor.

A medida que ha crecido la presencia de la IA generativa, Microsoft ha reunido expertos en seguridad y privacidad para identificar posibles riesgos y documentar buenas prácticas. Este proceso sigue evolucionando junto con la tecnología misma. A partir de este esfuerzo, se ha creado un marco robusto destinado a reducir riesgos y desarrollar soluciones efectivas.

Colaboración entre Expertos

El enfoque incluye colaboración entre diversos expertos: un red team especializado en detectar riesgos como alucinaciones, investigadores enfocados en deepfakes, así como especialistas en medición que han diseñado sistemas evaluativos para la IA.

Cabe destacar algunas herramientas clave: PyRIT, un marco open source para identificar riesgos; Azure AI Foundry, que permite evaluaciones automáticas constantes; y Azure AI Content Safety, orientada a detectar contenido perjudicial.

Aumentando la Confianza Empresarial

«Nuestro enfoque centrado en la seguridad incorpora múltiples capas de protección contra distintos riesgos. Estamos proporcionando a las organizaciones todas las herramientas necesarias para que puedan implementarlo por sí mismas», afirmó Bird.

Pongamos como ejemplo una gestoría que desarrolló un chatbot para asesoría fiscal; aquí fue crucial corregir las alucinaciones generadas por la IA para asegurar la precisión informativa. Además, se implementaron filtros específicos para bloquear ataques por prompts, contenido dañino y datos personales identificables.

"Hacer que nuestros propios sistemas de IA sean fiables es fundamental en nuestro día a día. Por ello, queremos capacitar a los clientes para que hagan lo mismo", enfatizó Sarah Bird.

Nuevas Herramientas para Organizaciones Médicas

A su vez, una organización del sector salud implementó un asistente capaz de resumir información con el fin de mejorar la precisión mediante un filtro personalizado que garantice no omitir datos relevantes.

"Muchas de nuestras herramientas funcionan como sistemas de depuración, lo cual ayudó a esta organización sanitaria a comprender mejor cómo optimizar su aplicación", señaló Sameki. "Gracias a esto, ambas empresas pudieron implementar sus soluciones más rápido y con mucha más confianza".

Mientras tanto, Microsoft también apoya a las organizaciones en fortalecer su gobernanza sobre IA. Este sistema facilita el seguimiento y gestión efectiva sobre el desarrollo e implementación de modelos aplicativos. Actualmente disponible en versión preview privada dentro del Azure AI Foundry, AI Reports, ofrecerá una plataforma colaborativa unificada para cumplir con regulaciones emergentes y documentar estrategias para mitigar riesgos potenciales.

"Si no se cuenta con un sistema adecuado de gobernanza, es difícil garantizar que todo funcione correctamente", concluyó Bird. "En Microsoft nos aseguramos que nuestros sistemas cumplan con normativas vigentes mientras compartimos nuestras mejores prácticas y tecnologías con nuestros clientes."

Dicha labor forma parte del compromiso continuo por parte de Microsoft hacia empoderar a las personas mediante una adopción segura y eficiente de la inteligencia artificial.

"La confianza en nuestros propios sistemas es fundamental; queremos brindar las herramientas necesarias para que nuestros clientes logren lo mismo", finalizó Bird.

Para más detalles: Blog sobre IA Responsable en Microsoft.


Noticias relacionadas