Close Menu
  • Home
  • AI
  • Economy
  • Business
    • Celebrities
    • Crypto News
  • Health
    • Cybersecurity
  • Careers
  • Market
  • Politics
  • Real estate
  • Tech
What's Hot

Die erste Fluggesellschaft installierte Betten in der Economy -Klasse

Giffey setzt sich für Personalaktualisierungen für SPD -Führung ein

Multi-Wallets und kalte Brieftaschen können nicht mehr angreifen

Facebook X (Twitter) Instagram
Munich Presse
  • Home
  • AI
  • Economy
  • Business
    • Celebrities
    • Crypto News
  • Health
    • Cybersecurity
  • Careers
  • Market
  • Politics
  • Real estate
  • Tech
  • Home
  • Contact us
  • Datenschutzerklärung
  • DMCA-Richtlinie
  • Über uns
  • Werbung
  • Über uns
Munich Presse
  • Home
  • Contact us
  • Datenschutzerklärung
  • DMCA-Richtlinie
  • Über uns
  • Werbung
  • Über uns
Home » Red Hat EMEA RHEL Platform Lead Jesper Rooth beantwortet Ihre Fragen zu RHEL AI
AI

Red Hat EMEA RHEL Platform Lead Jesper Rooth beantwortet Ihre Fragen zu RHEL AI

JohnBy JohnOktober 30, 2024Keine Kommentare4 Mins Read
Share Facebook Twitter Pinterest Copy Link Telegram LinkedIn Tumblr Email
Share
Facebook Twitter LinkedIn Pinterest Email


©Red Hat Co., Ltd.

Red Hat hat kürzlich RHEL AI eingeführt, eine Plattform zum nahtlosen Entwickeln, Testen und Bereitstellen von Unternehmensanwendungen mithilfe der Granite-LLM-Familie von IBM. Wir haben mit Jesper Rooth, Red Hats EMEA RHEL-Plattformleiter, über die KI-Pläne von Red Hat gesprochen.

Linux Magazine: Was ist der Unterschied zwischen einer KI-Plattform und einem regulären Server?

Jesper Rooth: Red Hat Enterprise Linux AI ist die Basismodellplattform zum Entwickeln, Testen und Bereitstellen von Unternehmensanwendungen unter Verwendung der umfangreichen Granite-Familie von Sprachmodellen. RHEL AI verwendet eine neue Funktion in Red Hat Enterprise Linux namens Image-Modus. Der Image-Modus ist eine Bereitstellungsmethode, die die Leistungsfähigkeit von Containern nutzt, um verschiedene Aspekte der IT-Verwaltung in einen einzigen Workflow zu integrieren. Dadurch wird Linux portabel, skalierbar und KI-fähig. Auf dieser Grundlage können Sie eine unveränderliche RHEL-Installation erstellen, die nur den Software-Stack und den Kernel enthält, der LLM-generierte KI-Workloads unterstützt. Im Wesentlichen ist dies das gleiche RHEL, das Sie gewohnt sind, nur mit der integrierten Unveränderlichkeit des Bildmodus.

LM: Ist RHEL AI eine maßgeschneiderte Lösung nur für die Modelltrainingsphase oder kann sie auch später zu Ihrem Vorteil genutzt werden, wenn Sie das trainierte Modell in Ihrer Anwendung ausführen?

JR: RHEL AI bietet auch ein VLLM (Very Large Language Model) als Inferenz-Engine, sodass es auch als erstklassige Bereitstellungs-/Inferenzlösung verwendet werden kann.

LM: An wen richtet sich das KI-Produkt? Soll es sich auch an mittelständische Kunden richten oder richtet es sich an Unternehmen?

JR: RHEL AI richtet sich an Benutzer, die eine benutzerfreundliche Appliance-ähnliche Lösung zum Trainieren ihrer eigenen Modelle suchen. RHEL AI ist ein Einzelserver und unterstützt bis zu 8 Nvidia H100-GPUs. Zielgruppe sind Unternehmen, die ihre sensiblen Daten für bestimmte Anwendungsfälle direkt in Modelle einbringen möchten. Die Bereitstellung einer konsistenten Basismodellplattform, die nah an den Daten Ihres Unternehmens ist, ist für die Unterstützung Ihrer KI-Strategie in der Produktion von entscheidender Bedeutung. Als Erweiterung des Hybrid-Cloud-Portfolios von Red Hat deckt RHEL AI nahezu jede erdenkliche Unternehmensumgebung ab, von lokalen Rechenzentren über Edge-Umgebungen bis hin zu öffentlichen Clouds.

LM: Wie viel Prozent der künstlichen Intelligenz schätzt Red Hat in naher Zukunft, mit der Benutzer tatsächlich auf ihrer Plattform interagieren, anstatt sie in Form eines Dienstes zu nutzen?

JR: Red Hat glaubt, dass die Zukunft der KI Open Source sein muss und dass Unternehmen mehr Wert aus kleinen, anwendungsspezifischen Modellen ziehen werden, die auf ihren eigenen Daten trainiert werden. Das Problem bei der Verwendung großer Modelle mit mehr als einer Billion Parametern besteht darin, dass sie alles wissen, möglicherweise auch die DNA-Sequenz der Spinne. Dieses Wissen ist jedoch nicht sehr nützlich, wenn ein Unternehmen einen Chatbot für Kundendienstmitarbeiter erstellen oder Kunden bei der Lösung von Problemen mit einem Produkt helfen möchte. RHEL AI und InstructLab machen die Möglichkeit, Ihre eigenen Modelle zu trainieren und auszuführen, zugänglicher und kostengünstiger. InstructLab ist ein Open-Source-Projekt zur Verbesserung umfangreicher Sprachmodelle. Ein von IBM und Red Hat ins Leben gerufenes Community-Projekt ermöglicht vereinfachtes Experimentieren mit generativen KI-Modellen und die Anpassung optimierter Modelle.

LM: Die Verbesserung der oben beschriebenen groß angelegten Sprachmodelle mithilfe von InstructLab kann als Aufbau auf dem allgemeinen Verständnis der Welt und der Sprache des bereits trainierten Basismodells verstanden werden, ergänzt durch domänenspezifisches Wissen. Wenn ja, worin besteht der Unterschied? von der Sucherweiterungsgenerierung?

JR: Ja, der Ansatz von RHEL AI besteht darin, bereits trainierte Sprachmodelle zu verbessern, indem domänenspezifisches Wissen direkt zum Modell selbst hinzugefügt wird. Dies unterscheidet sich von der Retrieval Extension Generation (RAG), die auf dem Abrufen externer Informationen während der Verwendung beruht. RHEL AI reduziert die Komplexität und Kosten der Wartung externer Suchsysteme und erhöht die Effizienz für domänenspezifische Aufgaben durch die Einbettung von Wissen in Modelle.

LM: Gibt es konkrete Projekte, die Ihre Kunden bereits realisiert haben oder mit diesem Angebot realisieren möchten?



Source link

Follow on Google News Follow on Flipboard
Share. Facebook Twitter Pinterest LinkedIn Tumblr Email Copy Link
Previous ArticleDer Stab von Außenminister Pistorius tritt der Verteidigungsindustrie bei
Next Article „Champion of Darts“: Goldene Nacht in Troisdorf
John
  • Website

Related Posts

Google schreibt ein Viertel seines Codes mit KI

Oktober 31, 2024

Meta AI soll 500 Millionen Nutzer haben, ist in der EU aber noch nicht verfügbar

Oktober 31, 2024

Horizon3.ai ist erneut in Fortune Cyber ​​​​60 enthalten.

Oktober 31, 2024
Leave A Reply Cancel Reply

Latest Posts

Ihr Netflix-Trailer trieft vor Luxus

Tageshoroskop Wassermann: Heute am 31.10.2024

Feierlichkeiten, Berühmtheiten und Wohltätigkeit in Südkalifornien, die die US-Präsidentschaftswahl 2024 beeinflussen werden

Saoirse Ronan lobt den viralen Gegenspieler zum Selbstverteidigungswitz

Latest Posts

Google schreibt ein Viertel seines Codes mit KI

Oktober 31, 2024

Meta AI soll 500 Millionen Nutzer haben, ist in der EU aber noch nicht verfügbar

Oktober 31, 2024

Horizon3.ai ist erneut in Fortune Cyber ​​​​60 enthalten.

Oktober 31, 2024

Updates abonnieren

Abonnieren Sie unseren Newsletter und verpassen Sie nie unsere neuesten Nachrichten.

Abonnieren Sie meinen Newsletter für neue Beiträge und Tipps. Bleiben Sie auf dem Laufenden!

Willkommen bei Munich Presse! Diese Allgemeinen Geschäftsbedingungen regeln die Nutzung unserer Website und der von uns bereitgestellten Dienstleistungen. Durch den Zugriff auf unsere Website erklären Sie sich mit diesen Bedingungen einverstanden. Bitte lesen Sie diese sorgfältig durch.

1. Akzeptanz der Bedingungen

Durch die Nutzung unserer Website bestätigen Sie, dass Sie mindestens 18 Jahre alt sind oder die Zustimmung eines Elternteils oder Erziehungsberechtigten haben, um die Website zu nutzen. Wenn Sie nicht zustimmen, dürfen Sie die Website nicht nutzen.

Facebook X (Twitter) Instagram Pinterest YouTube

Updates abonnieren

Abonnieren Sie unseren Newsletter und verpassen Sie nie unsere neuesten Nachrichten.

Abonnieren Sie meinen Newsletter für neue Beiträge und Tipps. Bleiben Sie auf dem Laufenden!

Facebook X (Twitter) Instagram Pinterest
  • Home
  • Contact us
  • Datenschutzerklärung
  • DMCA-Richtlinie
  • Über uns
  • Werbung
  • Über uns
© 2025 munichpresse. Designed by munichpresse.

Type above and press Enter to search. Press Esc to cancel.