Recommend this page to a friend! |
Classes of Rodrigo Faustino | Deepseek Offline | readme.md | Download |
|
|
![]() ? Chat LLM Local e Offline com PHP, JavaScript, Ollama e LM StudioEste projeto apresenta uma aplicação de chat em tempo real que demonstra o consumo de APIs locais fornecidas por servidores de LLM (Large Language Models) rodando diretamente em sua máquina. O foco é permitir a interação com diferentes modelos offline, sem necessidade de conexão com a internet após a configuração inicial. A aplicação utiliza PHP no backend para gerenciar as requisições e se comunicar com os servidores LLM locais (Ollama e LM Studio), e JavaScript no frontend para a interface de chat dinâmica e o streaming de respostas. ? Conceito CentralO principal objetivo deste projeto é ilustrar como é possível consumir APIs de LLMs que rodam localmente. Diferentemente de soluções que dependem de APIs na nuvem (como a OpenAI), aqui você controla o ambiente e pode rodar modelos compatíveis com Ollama ou via a API compatível com OpenAI do LM Studio, alternando entre eles diretamente na aplicação. Isso permite privacidade, uso offline e a possibilidade de experimentar diversos modelos sem custos de API ou latência de rede externa. ? Recursos? Consumo de APIs Locais: Interage com servidores LLM rodando no próprio computador (Ollama e LM Studio).
? Operação Offline: Não requer conexão com a internet para o chat após a instalação dos modelos.
? Suporte Dual Server: Configurado para alternar entre a API do Ollama ( ? Pré-requisitosPara rodar este projeto como configurado, você precisará ter os seguintes componentes instalados e rodando em sua máquina:
? Instalação e Configuração
? Rodando os Servidores LLMAntes de iniciar a aplicação PHP, certifique-se de que ambos os servidores, Ollama e LM Studio, estão rodando:
? Rodando o Servidor PHPCom os servidores LLM locais ativos, inicie o servidor web do PHP no diretório raiz do projeto:
|