Mattermost lance « OpenOps » pour accélérer l'évaluation responsable de l'IA générative appliquée aux workflows

PALO ALTO, Californie, 28 juin 2023 (GLOBE NEWSWIRE) — Lors de la Collision Conference 2023, Mattermost, Inc., la plateforme de collaboration scurise pour les quipes techniques, a annonc le lancement d' OpenOps , une approche open–source pour l'acclration de l'valuation responsable des politiques d'utilisation et des workflows amliors par l'IA qui permet aussi de maintenir le contrle des donnes et d'viter l'enfermement propritaire.

OpenOps merge la croise de la course pour tirer parti de l'IA afin d'obtenir un avantage concurrentiel et du besoin urgent de mener des oprations dignes de confiance, comprenant le dveloppement de politiques d'utilisation et de surveillance et assurant des contrles des donnes la fois rglementaires et faisant l'objet d'une obligation contractuelle.

Cette plateforme vise aider dgager les goulots d'tranglement cls entre ces proccupations cruciales en permettant aux dveloppeurs et aux entreprises d'auto–hberger un environnement de type bac sable avec un contrle total des donnes pour valuer de manire responsable les avantages et les risques de diffrents modles d'IA et politiques d'utilisation sur des workflows de collaboration par t'chat multi–utilisateurs du monde rel.

Le systme peut tre utilis pour valuer des LLM auto–hbergs lists sur Hugging Face, dont Falcon LLM et GPT4All, lorsque l'utilisation est optimise pour le contrle des donnes, ainsi que les modles hbergs par des fournisseurs en hyperscale depuis la plateforme Azure AI, OpenAI ChatGPT et Anthropic Claude lorsque l'utilisation est optimise des fins de performance.

La premire version de la plateforme OpenOps permet l'valuation d'une varit de cas d'utilisation amliors par l'IA, notamment :

Questions et rponses automatises : pendant un travail individuel comme collaboratif, les utilisateurs peuvent poser des questions des modles d'IA gnrative, qu'ils soient auto–hbergs ou hbergs par un fournisseur, afin d'en savoir plus sur diffrents sujets pris en charge par le modle.

Rcapitulation des discussions : des rsums peuvent tre gnrs par l'IA partir de discussions auto–hberges bases sur le t'chat afin d'acclrer les flux d'informations et la prise de dcisions, tout en rduisant le temps et le cot requis pour permettre aux entreprises de rester informes.

Interrogation contextuelle : les utilisateurs peuvent poser des questions de suivi des rsums de fils de discussion gnrs par des bots IA pour en savoir plus sur les informations sous–jacentes sans aller dans les donnes brutes. Par exemple, un rsum de discussion d'un bot IA sur un certain individu faisant une srie de demandes en vue d'un dpannage pourrait tre interrog via le bot IA afin d'avoir davantage de contexte sur la raison de ces demandes, et sur la manire dont il avait l'intention d'utiliser les informations.

Analyse des sentiments : les bots IA peuvent analyser le sentiment des messages, une fonction qui peut tre utilise pour recommander et fournir des ractions sous forme d'moticnes ces messages pour le compte d'un utilisateur. Par exemple, aprs avoir dtect un sentiment de rjouissance, un bot IA peut ajouter une raction sous la forme d'une moticne flamme indiquant de l'enthousiasme.

Collection d'apprentissages de renforcement bass sur le feedback humain (Reinforcement Learning from Human Feedback, RLHF) : pour aider valuer et former les modles d'IA, le systme peut recueillir le feedback des utilisateurs concernant les rponses provenant de diffrents modles et saisies en enregistrant les signaux pouce vers le haut/pouce vers le bas slectionns par les utilisateurs. l'avenir, les donnes pourront tre utilises pour peaufiner les modles existants et s'avreront aussi utiles pour valuer des modles alternatifs sur des saisies d'utilisateurs passes.

Ce framework open–source auto–hberg offre une architecture d'oprations et d'IA contrle par le client , fournissant un hub oprationnel pour la coordination et l'automatisation avec des bots IA connects des backends interchangeables auto–hbergs d'IA gnrative et de LLM de services comme Hugging Face. Par ailleurs, cette solution peut la fois prendre de l'ampleur pour devenir une architecture de data center et de cloud priv, ou rduire son chelle pour fonctionner sur l'ordinateur portable d'un dveloppeur des fins de recherche et d'exploration. Dans le mme temps, elle peut aussi se connecter aux modles hbergs par des fournisseurs en hyperscale depuis la plateforme Azure AI ainsi qu'OpenAI.

Chaque entreprise est dans la course pour dfinir de quelle manire l'IA acclre son avantage concurrentiel , a dclar Ian Tien, PDG de Mattermost. Nous avons cr OpenOps pour aider les entreprises dvoiler leur potentiel de manire responsable avec la capacit d'valuer une large gamme de politiques d'utilisation et de modles d'IA tout en acclrant leurs workflows internes.

Le framework OpenOps recommande une approche en quatre phases pour dvelopper les amliorations par IA :

1 – Un environnement de type bac sable auto–hberg – Demandez des quipes techniques de mettre en place un environnement de type bac sable auto–hberg en guise d'espace sr avec un contrle des donnes et une vrifiabilit afin d'explorer et de dmontrer les technologies de l'IA gnrative. Le bac sable OpenOps peut inclure simplement la collaboration Web par t'chat multi–utilisateurs ou tre tendu pour inclure les applications sur ordinateur de bureau et appareil mobile, les intgrations partir de diffrents outils internes pour simuler un environnement de production, ainsi que l'intgration d'autres environnements de collaboration, comme des canaux Microsoft Teams spcifiques.

2 – Un framework de contrle des donnes – Les quipes techniques mnent une valuation initiale de diffrents modles d'IA sur des cas d'utilisation internes, et dfinissent un point de dpart pour les politiques d'utilisation couvrant les questions de contrle des donnes avec diffrents modles, auto–hbergs ou hbergs par des fournisseurs, et dans ce dernier cas, sur la base de diffrentes assurances de manipulation des donnes. Par exemple, les politiques de contrle des donnes peuvent aller du blocage total des IA hberges par des fournisseurs au blocage de l'utilisation souponne de donnes sensibles comme des numros de carte de crdit ou des cls prives, ou alors il peut s'agir de politiques personnalises pouvant tre encodes dans l'environnement.

3 – Un framework de confiance, de scurit et de conformit – Les quipes de confiance, scurit et conformit sont invites dans l'environnement de type bac sable afin d'observer et d'interagir avec les premiers cas d'utilisation amliors par l'IA et travaillent avec les quipes techniques afin de dvelopper des politiques d'utilisation et de surveillance en plus du contrle des donnes. Par exemple, il peut s'agir de la cration de lignes directrices afin de dcider si l'IA peut tre utilise pour aider les responsables rdiger des valuations de performance pour leurs quipes, ou pour savoir si l'IA peut tre employe afin de rechercher des techniques de dveloppement de logiciels malveillants.

4 – Pilote et production – Une fois un rfrentiel des politiques d'utilisation et les premires amliorations apportes par l'IA disponibles, un groupe d'utilisateurs pilotes peut tre ajout l'environnement de type bac sable pour valuer les avantages de ces amliorations. Les quipes techniques peuvent rpter l'ajout d'amliorations de workflows l'aide de diffrents modles d'IA tandis que les quipes de confiance, scurit et conformit peuvent surveiller l'utilisation avec une vrifiabilit totale et rpter les politiques d'utilisation et leurs mises en "uvre. mesure que le systme pilote mrit, l'ensemble complet d'amliorations peut tre dploy dans des environnements de production pouvant fonctionner sur une version mise en production du framework OpenOps.

Le framework OpenOps inclut les capacits suivantes :

Un hub oprationnel auto–hberg : OpenOps permet des workflows oprationnels auto–hbergs sur une plateforme de messagerie en temps rel travers les systmes Web, mobiles et de bureau partir du projet open–source Mattermost. Les intgrations aux systmes internes et aux outils de dveloppeurs populaires aident enrichir les backends d'IA avec des donnes contextuelles cruciales. L'automatisation des workflows acclre les temps de rponse tout en rduisant les taux d'erreur et le risque.

Des bots IA avec des backends IA interchangeables : OpenOps permet aux bots IA d'tre intgrs aux oprations tandis qu'ils sont connects une palette interchangeable de plateformes IA. Pour un contrle maximal des donnes, travaillez avec des modles LLM open–source auto–hbergs comprenant GPT4All et Falcon LLM de services comme Hugging Face. Pour des performances optimales, puisez dans le frameworking IA tiers comprenant OpenAI ChatGPT, la plateforme Azure AI et Anthropic Claude.

Contrle total des donnes : OpenOps permet aux entreprises d'auto–hberger, contrler et surveiller toutes les donnes, toutes les adresses IP et tout le trafic rseau au moyen de son infrastructure de scurit et de conformit existante. Cela permet aux entreprises de dvelopper un corpus riche de donnes de formation du monde rel pour l'valuation et le peaufinage futurs de backends IA.

Gratuit et open–source : disponible sous les licences MIT et Apache 2, OpenOps est un systme open–source gratuit permettant aux entreprises de dployer et d'excuter l'architecture complte en toute simplicit.

volutivit : OpenOps offre la flexibilit d'un dploiement sur des clouds privs, des data centers ou mme un ordinateur portable standard. Le systme supprime aussi la ncessit de matriel spcialis comme des processeurs graphiques, tendant le nombre de dveloppeurs pouvant explorer les modles d'IA auto–hbergs.

Le framework OpenOps est actuellement exprimental et peut tre tlcharg sur openops.mattermost.com.

propos de Mattermost

Mattermost fournit un hub extensible et sr aux quipes techniques et oprationnelles qui doivent rpondre des exigences de confiance et de scurit au niveau d'un tat–nation. Nous desservons les industries de la technologie, du secteur public et de la dfense nationale avec des clients allant des gants technologiques au Dpartement de la dfense des tats–Unis en passant par des agences gouvernementales du monde entier.

Nos offres cloud auto–hberges fournissent une plateforme robuste pour la communication technique travers les systmes Web, de bureau et mobiles prenant en charge les workflows oprationnels, la collaboration sur les incidents, l'intgration au Dev/Sec/Ops et aux chanes de compilation internes et la connexion avec une large gamme de plateformes de communications unifies.

Nous fonctionnons avec une plateforme open–source approuve et dploye par les organisations les plus cruciales et sres du monde, qui est co–construite avec plus de 4 000 contributeurs de projets open–source ayant fourni plus de 30 000 amliorations de codes en faveur de notre vision partage des produits, et traduite en 20 langues.

Pour en savoir plus, veuillez consulter le site www.mattermost.com.

Mattermost et le logo Mattermost sont des marques commerciales dposes de Mattermost, Inc. Toutes les autres marques commerciales sont la proprit de leurs dtenteurs respectifs.

Contact auprs des mdias :

Amy Nicol
Relations avec la presse
Mattermost, Inc.

+1 (650) 667–8512
media@mattermost.com

Images :

Titre : Ian Tien, PDG de Mattermost, Inc.

Lgende : Ian Tien, PDG de Mattermost, Inc., annonce la plateforme OpenOps pour le contrle des adresses IP et viter l'enfermement propritaire alors que les workflows oprationnels sont de plus en plus acclrs par l'IA

Image complte : https://www.dropbox.com/s/kn3eyxyd6eevsab/iantien_4000x2667.jpg?dl=0

Des photos accompagnant ce communiqu sont disponibles aux adresses suivantes :

https://www.globenewswire.com/NewsRoom/AttachmentNg/d8db2abf–8b1b–4ed6–9f51–952fc8b97597/fr

https://www.globenewswire.com/NewsRoom/AttachmentNg/a4e2598d–4245–4ee9–91ff–895cf0afa68b


GLOBENEWSWIRE (Distribution ID 8866193)