Microsoft dice que lanzó 30 herramientas de IA en el ultimo año

Microsoft compartió sus prácticas de inteligencia artificial responsable del año pasado en un informe inaugural, incluido el lanzamiento de 30 herramientas de IA responsable que tienen más de 100 funciones para respaldar la IA desarrolladas por sus clientes.


El Informe de Transparencia de IA Responsable de la compañía se centra en sus esfuerzos para construir, respaldar y hacer crecer productos de IA de manera responsable, y es parte de los compromisos de Microsoft después de firmar un acuerdo voluntario con la Casa Blanca en julio. Microsoft también dijo que aumentó su equipo responsable de IA de 350 a más de 400 personas, un aumento del 16,6%, en la segunda mitad del año pasado.

"Como empresa a la vanguardia de la investigación y la tecnología de IA, estamos comprometidos a compartir nuestras prácticas con el público a medida que evolucionan", dijeron Brad Smith, vicepresidente y presidente de Microsoft, y Natasha Crampton, directora responsable de IA, en un comunicado. "Este informe nos permite compartir nuestras prácticas de maduración, reflexionar sobre lo que hemos aprendido, trazar nuestras metas, hacernos responsables y ganarnos la confianza del público".

{getCard} $type={post} $title={Recomendado}

Microsoft dijo que sus herramientas de IA responsables están destinadas a "mapear y medir los riesgos de IA", y luego administrarlos con mitigaciones, detección y filtrado en tiempo real y monitoreo continuo. En febrero, Microsoft lanzó una herramienta de red teaming de acceso abierto llamada Python Risk Identification Tool (PyRIT) para IA generativa, que permite a los profesionales de la seguridad y a los ingenieros de aprendizaje automático identificar riesgos en sus productos de IA generativa.

En noviembre, la compañía lanzó un conjunto de herramientas de evaluación de IA generativa en Azure AI Studio, donde los clientes de Microsoft crean sus propios modelos de IA generativa, para que los clientes puedan evaluar sus modelos en busca de métricas básicas de calidad, incluida la fundamentación, o qué tan bien se alinea la respuesta generada de un modelo con su material de origen. 

En marzo, estas herramientas se ampliaron para abordar los riesgos de seguridad, incluidos los contenidos de odio, violentos, sexuales y autolesivos, así como los métodos de jailbreak, como las inyecciones rápidas, que es cuando un modelo de lenguaje grande (LLM) recibe instrucciones que pueden hacer que filtre información confidencial o difunda información errónea.

A pesar de estos esfuerzos, el equipo responsable de IA de Microsoft ha tenido que hacer frente a numerosos incidentes con sus modelos de IA en el último año. En marzo, el chatbot de IA Copilot de Microsoft le dijo a un usuario que "tal vez no tengas nada por lo que vivir", después de que el usuario, un científico de datos de Meta, le preguntara a Copilot si debería "terminar con todo". Microsoft dijo que el científico de datos había tratado de manipular el chatbot para generar respuestas inapropiadas, lo que el científico de datos negó.

En octubre pasado, el generador de imágenes Bing de Microsoft permitía a los usuarios generar fotos de personajes populares, incluidos Kirby y Bob Esponja, volando aviones contra las Torres Gemelas. Después de que su chatbot de IA Bing (el predecesor de Copilot) se lanzara en febrero del año pasado, un usuario pudo hacer que el chatbot dijera "Heil Hitler".

"No hay una línea de meta para la IA responsable. Y aunque este informe no tiene todas las respuestas, estamos comprometidos a compartir nuestros aprendizajes desde el principio y con frecuencia y a entablar un diálogo sólido sobre las prácticas responsables de IA", escribieron Smith y Crampton en el informe.