O Red Hat Enterprise Linux (RHEL) AI acaba de ser disponibilizado a clientes em todo os cantos do mundo. O RHEL AI é a plataforma de modelos de base da Red Hat, que permite aos usuários desenvolver, testar e executar modelos de IA generativa (gen AI) de forma mais integrada para potencializar aplicações empresariais dentro da nuvem híbrida. A solução reúne a família de large language models (LLM) Granite com licença de código aberto e as ferramentas de alinhamento de modelos InstructLab, com base na metodologia Large-scale Alignment for chatBots (LAB), empacotada como uma imagem RHEL otimizada e inicializável para implantações de servidores individuais na nuvem híbrida.
Embora o potencial da gen AI seja imenso, os custos associados à aquisição, treinamento e ajuste fino de LLMs podem ser astronômicos, com o valor de treinamento de alguns modelos de ponta chegando a quase US$ 200 milhões antes do lançamento. O investimento não inclui os gastos de alinhamento para necessidades ou dados específicos de uma determinada organização, o que normalmente requer cientistas de dados ou desenvolvedores altamente especializados para realizar a tarefa. Independentemente do modelo selecionado para uma aplicação, o alinhamento ainda será necessário para operar com dados e processos específicos da empresa, tornando a eficiência e a agilidade essenciais para a IA em vários ambientes de aplicação.
A Red Hat acredita que, na próxima década, modelos de IA menores, mais eficientes e desenvolvidos sob medida serão um componente substancial no desenvolvimento do TI empresarial, juntamente com aplicações nativas em nuvem. Mas, para conseguir isso, a gen AI precisa ser mais acessível, flexível e disponível, desde a democratização de custos até seus contribuidores e onde ela poderá operar na nuvem híbrida. Por décadas, comunidades de código aberto têm ajudado a resolver desafios semelhantes para problemas complexos de software por meio de contribuições de diversos grupos de usuários; uma abordagem parecida pode reduzir as barreiras para adotar efetivamente a gen AI.
Abordagem open source para gen AI
Esses são os desafios que o RHEL AI pretende abordar: tornar a gen AI mais acessível, mais eficiente e mais flexível para CIOs e organizações de TI corporativas na nuvem híbrida. Assim, o RHEL AI auxilia organizações a:
- Empoderar a inovação da gen AI com os modelos Granite de nível empresarial open source, alinhados com vários casos de uso de gen AI.
- Alinhar modelos de gen AI a requerimentos comerciais: utilizando ferramentas InstructLab, a plataforma ambiciona que especialistas e desenvolvedores de uma organização contribuam com ferramentas e conhecimentos únicos aos seus modelos mesmo sem grandes conhecimentos deciências de dados.
- Treinar e implantar gen AI em qualquer lugar na nuvem híbrida: ao fornecer todas as ferramentas para ajustar e implantar modelos para servidores em produção onde quer que os dados associados estejam. O RHEL AI também fornece um atalho para o Red Hat OpenShift AI treinar, ajustar e servir esses modelos em escala enquanto usam as mesmas ferramentas e conceitos.
O RHEL AI conta ainda com os benefícios de uma subscrição da Red Hat, o que inclui distribuição de produtos empresariais confiáveis, atendimentos à produção 24×7, suporte estendido ao ciclo de vida do modelo e proteções legais de garantia Open Source.
RHEL AI se estende pela nuvem híbrida
Aproximar uma plataforma de modelo de base mais consistente é crucial para dar suporte às estratégias de IA em produção de qualquer empresa. Como uma extensão do portfólio de nuvem híbrida da Red Hat, o RHEL AI irá abranger quase todos os ambientes empresariais concebíveis, de datacenters on-premises a ambientes edge e de nuvem pública. Isso significa que o RHEL AI estará disponível diretamente na Red Hat, nos parceiros fabricantes de equipamentos originais (OEM) da Red Hat e para ser executado nos maiores provedores de nuvem do mundo, incluindo Amazon Web Services (AWS), Google Cloud, IBM Cloud e Microsoft Azure. Isso permite que desenvolvedores e organizações de TI usem o poder dos recursos de computação de hyperscalers para construir conceitos inovadores de IA com o RHEL AI.
Para Joe Fernandes, vice-presidente e manager de Plataformas de Modelos de Base da Red Hat, a democratização dos recursos e ferramentas de IA é fundamental para escalar a tecnologia. “Para que as aplicações gen AI sejam realmente bem-sucedidas nas empresas, elas precisam ser mais acessíveis a um conjunto maior de áreas e usuários, e mais aplicável a casos de uso comerciais específicos. O RHEL AI fornece a capacidade para que especialistas, não apenas cientistas de dados, contribuam com um modelo de gen AI construído sob demanda em toda a nuvem híbrida, enquanto também possibilita que as organizações de TI escalem estes modelos para a produção por meio do Red Hat OpenShift AI.”, disse.
Disponibilidade
O RHEL AI já está disponível pelo Red Hat Customer Portal para operar on-premises ou para upload no AWS e IBM Cloud no formato “bring your own subscription” (BYOS). A oferta BYOS no Azure e Google Cloud deve ser lançada no 4T 2024 e o RHEL AI também deve estar disponível no IBM Cloud como serviço no fim deste ano.
A Red Hat planeja expandir ainda mais a abertura do RHEL AI a parceiros de nuvem e OEM nos próximos meses, fornecendo ainda mais escolhas em ambientes de nuvem híbrida.