Do zero ao herói em Ollama: crie aplicações locais de LLM
Do zero ao herói em Ollama: crie aplicações locais de LLM
Não foi possível carregar a disponibilidade de recolha
Do zero ao herói em Ollama: crie aplicações locais de LLM
Visão geral do curso
Este curso foi desenvolvido para levá-lo de um completo iniciante a um usuário proficiente do Ollama , um framework de código aberto para executar e implantar modelos de linguagem local (LLMs) com eficiência. Você aprenderá a instalar, configurar e usar o Ollama para criar aplicativos com tecnologia de IA sem depender de serviços baseados em nuvem. Ao final deste curso, você será capaz de integrar LLMs locais em seus próprios projetos e implantá-los com interfaces de usuário da Web, APIs e ferramentas de automação .
O que você aprenderá
✅ Introdução ao Ollama – Compreendendo LLMs locais, vantagens e casos de uso
✅ Instalando e configurando o Ollama – Configurando seu ambiente no Windows, macOS e Linux
✅ Executando LLMs locais – Carregando e usando modelos como Llama, Mistral, Gemma e Mixtral
✅ Interagindo com LLMs – Executando modelos via linha de comando, chamadas de API e scripts Python
✅ Construindo aplicativos de IA – Criando chatbots, analisadores de documentos e ferramentas com tecnologia de IA
✅ Implantando uma IU da Web – Configurando uma IU da Web de código aberto para interagir com modelos locais
✅ Otimizando o desempenho – Gerenciando a aceleração da GPU, quantização e uso de memória
✅ Integração com outras ferramentas – Usando Ollama com LangChain, Open Web UI e FastAPI
Módulos do curso
Módulo 1: Introdução aos LLMs locais e Ollama
- O que é um LLM local?
- Introdução ao Ollama
- Benefícios de executar LLMs localmente
Módulo 2: Configurando o Ollama
- Instalando o Ollama no macOS, Windows e Linux
- Baixando e executando modelos pré-treinados
- Configurando hardware para desempenho ideal
Módulo 3: Usando Ollama para tarefas de IA
- Executando modelos a partir da linha de comando
- Consultando modelos por meio de solicitações de API
- Escrevendo scripts Python para interagir com Ollama
Módulo 4: Construindo Aplicações com LLMs Locais
- Criando um chatbot de IA local
- Resumo de documentos e resposta a perguntas
- Geração de imagens e textos com modelos locais
Módulo 5: Implantando uma interface de usuário da Web para LLMs
- Configurando a interface de usuário da Web do Ollama
- Usando a interface de usuário da Web aberta para interação
- Personalizando interfaces da Web
Módulo 6: Tópicos Avançados
- Usando Ollama com LangChain e FastAPI
- Ajustando LLMs locais
- Automatizando fluxos de trabalho de IA
Recursos e links
- Site oficial do Ollama : https://ollama.com
- Ollama GitHub : https://github.com/ollama/ollama
- Open Web UI (para LLMs) : https://github.com/open-webui/open-webui
Como abrir a interface da Web para Ollama
-
Instalar Open Web UI
git clone https://github.com/open-webui/open-webui.git cd open-webui docker compose up -d
-
Acesse a interface da Web
- Abra seu navegador e acesse:
http://localhost:3000
- Abra seu navegador e acesse:
-
Conecte-se com Ollama
- Vá para Configurações e defina o Ollama como backend.
- Comece a conversar com seu LLM local!
Quem deve fazer este curso?
✔️ Desenvolvedores e entusiastas de IA que desejam executar LLMs locais
✔️ Usuários focados em privacidade que preferem aplicativos de IA offline
✔️ Engenheiros que buscam integrar ferramentas baseadas em IA em seus projetos
✔️ Qualquer pessoa interessada em LLMs sem dependências de nuvem