Do zero ao herói em Ollama: crie aplicações locais de LLM

Do zero ao herói em Ollama: crie aplicações locais de LLM

Preço normal €200,00 EUR
Preço normal €300,00 EUR Preço de saldo €200,00 EUR
Em promoção Esgotado
Imposto incluído.

Do zero ao herói em Ollama: crie aplicações locais de LLM

Visão geral do curso

Este curso foi desenvolvido para levá-lo de um completo iniciante a um usuário proficiente do Ollama , um framework de código aberto para executar e implantar modelos de linguagem local (LLMs) com eficiência. Você aprenderá a instalar, configurar e usar o Ollama para criar aplicativos com tecnologia de IA sem depender de serviços baseados em nuvem. Ao final deste curso, você será capaz de integrar LLMs locais em seus próprios projetos e implantá-los com interfaces de usuário da Web, APIs e ferramentas de automação .


O que você aprenderá

Introdução ao Ollama – Compreendendo LLMs locais, vantagens e casos de uso
Instalando e configurando o Ollama – Configurando seu ambiente no Windows, macOS e Linux
Executando LLMs locais – Carregando e usando modelos como Llama, Mistral, Gemma e Mixtral
Interagindo com LLMs – Executando modelos via linha de comando, chamadas de API e scripts Python
Construindo aplicativos de IA – Criando chatbots, analisadores de documentos e ferramentas com tecnologia de IA
Implantando uma IU da Web – Configurando uma IU da Web de código aberto para interagir com modelos locais
Otimizando o desempenho – Gerenciando a aceleração da GPU, quantização e uso de memória
Integração com outras ferramentas – Usando Ollama com LangChain, Open Web UI e FastAPI


Módulos do curso

Módulo 1: Introdução aos LLMs locais e Ollama

  • O que é um LLM local?
  • Introdução ao Ollama
  • Benefícios de executar LLMs localmente

Módulo 2: Configurando o Ollama

  • Instalando o Ollama no macOS, Windows e Linux
  • Baixando e executando modelos pré-treinados
  • Configurando hardware para desempenho ideal

Módulo 3: Usando Ollama para tarefas de IA

  • Executando modelos a partir da linha de comando
  • Consultando modelos por meio de solicitações de API
  • Escrevendo scripts Python para interagir com Ollama

Módulo 4: Construindo Aplicações com LLMs Locais

  • Criando um chatbot de IA local
  • Resumo de documentos e resposta a perguntas
  • Geração de imagens e textos com modelos locais

Módulo 5: Implantando uma interface de usuário da Web para LLMs

  • Configurando a interface de usuário da Web do Ollama
  • Usando a interface de usuário da Web aberta para interação
  • Personalizando interfaces da Web

Módulo 6: Tópicos Avançados

  • Usando Ollama com LangChain e FastAPI
  • Ajustando LLMs locais
  • Automatizando fluxos de trabalho de IA

Recursos e links


Como abrir a interface da Web para Ollama

  1. Instalar Open Web UI

    git clone https://github.com/open-webui/open-webui.git
     cd open-webui
     docker compose up -d
    
  2. Acesse a interface da Web

  3. Conecte-se com Ollama

    • Vá para Configurações e defina o Ollama como backend.
    • Comece a conversar com seu LLM local!

Quem deve fazer este curso?

✔️ Desenvolvedores e entusiastas de IA que desejam executar LLMs locais
✔️ Usuários focados em privacidade que preferem aplicativos de IA offline
✔️ Engenheiros que buscam integrar ferramentas baseadas em IA em seus projetos
✔️ Qualquer pessoa interessada em LLMs sem dependências de nuvem


Inscreva-se agora e vá de zero a herói em Ollama!

Ver detalhes completos