PALO ALTO, Kalifornien, June 28, 2023 (GLOBE NEWSWIRE) — Auf der Collision Conference 2023 hat Mattermost, Inc. die sichere Kollaborationsplattform fr technische Teams, die Einfhrung von "OpenOps" angekndigt, einem Open–Source–Ansatz zur Beschleunigung der verantwortungsvollen Evaluierung von KI–gesttzten Workflows und Nutzungsrichtlinien bei gleichzeitiger Beibehaltung der Datenkontrolle und Vermeidung von Anbieterbindung.
OpenOps entsteht an der Schnittstelle zwischen dem Bestreben, KI als Wettbewerbsvorteil zu nutzen, und der dringenden Notwendigkeit, einen vertrauenswrdigen Betrieb zu fhren, einschlielich der Entwicklung von Nutzungs– und berwachungsrichtlinien und der Sicherstellung gesetzlicher und vertraglich festgelegter Datenkontrollen.
Es soll dazu beitragen, Engpsse zwischen diesen kritischen Belangen zu beseitigen, indem es Entwicklern und Unternehmen ermglicht, selbst eine "Sandbox"–Umgebung mit voller Datenkontrolle zu hosten, um die Vorteile und Risiken verschiedener KI–Modelle und Nutzungsrichtlinien fr reale Chat–Collaboration–Workflows mit mehreren Nutzern verantwortungsbewusst zu bewerten.
Das System kann verwendet werden, um selbst gehostete LLMs, die auf Hugging Face aufgelistet sind, einschlielich Falcon LLM und GPT4All, wenn die Nutzung fr die Datenkontrolle optimiert ist, sowie hyperskalierte, von Anbietern gehostete Modelle der Azure AI–Plattform, OpenAI ChatGPT und Anthropic Claude zu bewerten, wenn die Nutzung fr die Leistung optimiert ist.
Die erste Version der OpenOps–Plattform ermglicht die Evaluierung einer Reihe von KI–gesttzten Anwendungsfllen, darunter:
Automatisierte Frage– und Antwortablufe: Whrend der gemeinsamen oder individuellen Arbeit knnen die Nutzer Fragen an generative KI–Modelle stellen, die entweder selbst gehostet oder von Anbietern gehostet werden, um mehr ber verschiedene Themen zu erfahren, die das Modell untersttzt.
Zusammenfassung von Diskussionen: KI–generierte Zusammenfassungen knnen aus selbst gehosteten, chatbasierten Diskussionen erstellt werden, um den Informationsfluss und die Entscheidungsfindung zu beschleunigen und gleichzeitig den Zeit– und Kostenaufwand fr Unternehmen zu reduzieren, um auf dem neuesten Stand zu bleiben.
Kontextbezogene Befragung: Nutzer knnen als Reaktion auf von den KI–Bots erstellten Thread–Zusammenfassungen Folgefragen stellen, um mehr ber die zugrunde liegenden Informationen zu erfahren, ohne sich mit den Rohdaten zu befassen. So knnte beispielsweise eine Diskussionszusammenfassung eines KI–Bots ber eine bestimmte Person, die eine Reihe von Anfragen zur Fehlerbehebung gestellt hat, ber den KI–Bot abgefragt werden, um mehr darber zu erfahren, warum die Person die Anfragen gestellt hat und wie sie die Informationen zu nutzen gedenkt.
Stimmungsanalyse: KI–Bots knnen die Stimmung von Nachrichten analysieren, um Empfehlungen auszusprechen und Emoji–Reaktionen auf diese Nachrichten im Namen eines Nutzers zu liefern. Wenn ein KI–Bot zum Beispiel eine feierliche Stimmung erkennt, kann er eine Reaktion mit einem "Feuer"–Emoji hinzufgen, die Aufregung anzeigt.
Verstrkungslernen aus der Sammlung menschlichen Feedbacks: Um die Bewertung und das Training von KI–Modellen zu untersttzen, kann das System Rckmeldungen von Nutzern zu den Antworten auf verschiedene Aufforderungen und Modelle sammeln, indem es die "Daumen hoch/Daumen runter"–Signale aufzeichnet, die die Endnutzer auswhlen. Die Daten knnen in Zukunft sowohl fr die Feinabstimmung bestehender Modelle als auch fr die Bewertung alternativer Modelle auf der Grundlage frherer Benutzeraufforderungen verwendet werden.
Dieses quelloffene, selbst gehostete Framework bietet eine "kundengesteuerte Betriebs– und KI–Architektur". Diese stellt ein operatives Zentrum fr die Koordination und Automatisierung mit KI–Bots dar, die mit austauschbaren, selbst gehosteten generativen KI– und LLM–Backends von Diensten wie Hugging Face verbunden sind. Diese wiederum knnen auf private Cloud– und Rechenzentrumsarchitekturen hochskaliert werden, aber auch auf dem Laptop eines Entwicklers zu Forschungs– und Erkundungszwecken laufen. Gleichzeitig kann es sich auch mit hyperskalierten, von Anbietern gehosteten Modellen der Azure AI–Plattform sowie mit OpenAI verbinden.
"Jede Organisation befindet sich in einem Wettlauf, um zu definieren, wie KI ihren Wettbewerbsvorteil beschleunigt", so Ian Tien, CEO von Mattermost. "Wir haben OpenOps geschaffen, um Organisationen dabei zu helfen, ihr Potenzial verantwortungsvoll zu erschlieen, indem sie eine breite Palette von Nutzungsrichtlinien und KI–Modellen in ihrer Fhigkeit bewerten knnen, die internen Arbeitsablufe gemeinsam zu beschleunigen."
Der OpenOps–Rahmen empfiehlt einen vierstufigen Ansatz fr die Entwicklung von KI–Erweiterungen:
1 – Selbst gehostete Sandbox "" Lassen Sie technische Teams eine selbst gehostete "Sandbox"–Umgebung als sicheren Raum mit Datenkontrolle und Prfbarkeit einrichten, um generative KI–Technologien zu erforschen und zu demonstrieren. Die OpenOps–Sandbox kann webbasierte Multi–User–Chat–Zusammenarbeit allein umfassen oder um Desktop– und mobile Anwendungen, Integrationen verschiedener interner Tools zur Simulation einer Produktionsumgebung sowie die Integration mit anderen Kollaborationsumgebungen, wie z. B. bestimmten Microsoft Teams–Kanlen, erweitert werden.
2 – Datenkontrollrahmen "" Technische Teams fhren eine erste Bewertung verschiedener KI–Modelle fr interne Anwendungsflle durch und legen einen Ausgangspunkt fr Nutzungsrichtlinien fest, die Fragen der Datenkontrolle bei verschiedenen Modellen abdecken, je nachdem, ob es sich um selbst gehostete oder von Anbietern gehostete Modelle handelt, und bei von Anbietern gehosteten Modellen auf der Grundlage unterschiedlicher Datenverarbeitungsgarantien. Die Datenkontrollrichtlinien knnen beispielsweise von der vollstndigen Sperrung der von Anbietern gehosteten KI ber die Sperrung der vermuteten Verwendung sensibler Daten wie Kreditkartennummern oder privater Schlssel bis hin zu benutzerdefinierten Richtlinien reichen, die in die Umgebung kodiert werden knnen.
3 – Vertrauens–, Sicherheits– und Compliance–Rahmen "" Vertrauens–, Sicherheits– und Compliance–Teams werden in die Sandbox–Umgebung eingeladen, um erste KI–gesttzte Anwendungsflle zu beobachten und mit ihnen zu interagieren und mit den technischen Teams zusammenzuarbeiten, um zustzlich zur Datenkontrolle Nutzungs– und Aufsichtsrichtlinien zu entwickeln. So knnen beispielsweise Richtlinien darber definiert werden, ob KI verwendet werden kann, um Managern bei der Erstellung von Leistungsbewertungen fr ihre Teams zu helfen, oder ob Techniken zur Entwicklung bsartiger Software mithilfe von KI erforscht werden knnen.
4 – Pilot und Produktion "" Sobald eine Basis fr Nutzungsrichtlinien und erste KI–Verbesserungen verfgbar ist, kann eine Gruppe von Pilotnutzern in die Sandbox–Umgebung aufgenommen werden, um die Vorteile der Erweiterungen zu bewerten. Technische Teams knnen mit Hilfe verschiedener KI–Modelle Workflow–Erweiterungen hinzufgen, whrend die Teams fr Vertrauen, Sicherheit und Compliance die Nutzung mit vollstndiger Auditierbarkeit berwachen und Nutzungsrichtlinien und deren Implementierung berarbeiten knnen. Wenn das Pilotsystem ausgereift ist, knnen alle Verbesserungen in Produktionsumgebungen eingesetzt werden, die auf einer produktionsreifen Version des OpenOps–Frameworks laufen knnen.
Das OpenOps–Framework umfasst die folgenden Funktionen:
Selbstgehosteter operativer Hub: OpenOps ermglicht selbst gehostete operative Workflows auf einer Echtzeit–Messaging–Plattform fr Web, Mobilgerte und Desktop–Computer des Open–Source–Projekts Mattermost. Integrationen mit internen Systemen und beliebten Entwickler–Tools zur Anreicherung von KI–Backends mit wichtigen, kontextbezogenen Daten. Die Automatisierung von Arbeitsablufen beschleunigt die Reaktionszeiten und reduziert gleichzeitig Fehlerquoten und Risiken.
KI–Bots mit austauschbaren KI–Backends: OpenOps ermglicht die Integration von KI–Bots in den Betrieb und die Anbindung an eine austauschbare Reihe von KI–Plattformen. Fr maximale Datenkontrolle sollten Sie mit selbst gehosteten, quelloffenen LLM–Modellen wie GPT4All und Falcon LLM von Diensten wie Hugging Face arbeiten. Fr maximale Leistung knnen Sie auf KI–Frameworks von Drittanbietern wie OpenAI ChatGPT, die Azure AI Platform und Anthropic Claude zurckgreifen.
Vollstndige Datenkontrolle: OpenOps ermglicht es Unternehmen, den gesamten Daten–, IP– und Netzwerkverkehr selbst zu hosten, zu kontrollieren und zu berwachen, indem sie ihre bestehende Sicherheits– und Compliance–Infrastruktur nutzen. Auf diese Weise knnen Unternehmen einen umfangreichen Bestand an realen Trainingsdaten fr die zuknftige Bewertung und Feinabstimmung von KI–Backends entwickeln.
Kostenlos und Open Source: OpenOps ist ein kostenloses, quelloffenes System, das unter der MIT– und Apache–2–Lizenz verfgbar ist und es Unternehmen ermglicht, die komplette Architektur einfach einzusetzen und zu betreiben.
Skalierbarkeit: OpenOps bietet die Flexibilitt zur Bereitstellung in privaten Clouds, Rechenzentren oder sogar auf einem Standard–Laptop. Das System macht auch spezielle Hardware wie GPUs berflssig, wodurch mehr Entwickler selbst gehostete KI–Modelle erforschen knnen.
Das OpenOps–Framework ist derzeit experimentell und kann unter openops.mattermost.com heruntergeladen werden.
ber Mattermost
Mattermost bietet einen sicheren, erweiterbaren Hub fr technische und operative Teams, die Sicherheits– und Vertrauensanforderungen auf nationaler Ebene erfllen mssen. Unsere Kunden aus den Bereichen Technologie, ffentlicher Sektor und nationale Verteidigung reichen von Tech–Giganten ber das US–Verteidigungsministerium bis hin zu Regierungsbehrden in aller Welt.
Unsere selbst gehosteten und Cloud–Angebote bieten eine robuste Plattform fr die technische Kommunikation ber Web, Desktop und Mobilgerte, die betriebliche Arbeitsablufe, die Zusammenarbeit bei Vorfllen, die Integration mit Dev/Sec/Ops und internen Toolchains sowie die Verbindung mit einer breiten Palette von Unified Communications–Plattformen untersttzt.
Wir arbeiten auf einer Open–Source–Plattform, die von den sichersten und geschftskritischsten Organisationen der Welt geprft und eingesetzt wird. Sie wird gemeinsam mit ber 4 000 Open–Source–Projektmitarbeitern entwickelt, die ber 30 000 Code–Verbesserungen fr unsere gemeinsame Produktvision bereitgestellt haben, die in 20 Sprachen bersetzt wurde.
Um mehr zu erfahren, besuchen Sie uns unter www.mattermost.com.
Mattermost und das Mattermost–Logo sind eingetragene Marken von Mattermost, Inc. Alle anderen Marken sind Eigentum ihrer jeweiligen Inhaber.
Medienkontakt:
Amy Nicol
Press Relations
Mattermost, Inc.
+1 (650) 667–8512
media@mattermost.com
Bilder:
Titel: Ian Tien, CEO von Mattermost, Inc.
Bildunterschrift: Ian Tien, CEO von Mattermost, Inc., kndigt angesichts der Beschleunigung betrieblicher Ablufe durch KI seine "OpenOps"–Plattform zur Steuerung von IP und zur Vermeidung von Lock–Ins an
Vollstndiges Bild: https://www.dropbox.com/s/kn3eyxyd6eevsab/iantien_4000x2667.jpg?dl=0
Fotos zu dieser Ankndigung sind verfgbar unter:
https://www.globenewswire.com/NewsRoom/AttachmentNg/d8db2abf–8b1b–4ed6–9f51–952fc8b97597/de
https://www.globenewswire.com/NewsRoom/AttachmentNg/a4e2598d–4245–4ee9–91ff–895cf0afa68b
GLOBENEWSWIRE (Distribution ID 8866193)