项目简介
Ollama 的 ChatGPT 风格 Web 界面
特点
直观的界面:我们的聊天界面从 ChatGPT 中汲取灵感,确保用户友好的体验。
响应式设计:在桌面和移动设备上享受无缝体验。
快速响应:享受快速响应的性能。
轻松设置:使用 Docker 无缝安装,获得无忧体验。
下载/删除模型:直接从 Web UI 轻松下载或删除模型。
多模型支持:不同聊天模型无缝切换,互动多样。
聊天历史记录:轻松访问和管理您的对话历史记录。
导入/导出聊天历史记录:将您的聊天数据无缝移入和移出平台。
使用高级参数进行微调控制:通过调整温度等参数和定义系统提示来获得更深层次的控制,从而根据您的特定偏好和需求定制对话。
代码语法突出显示:通过我们的语法突出显示功能增强代码的可读性。
外部 Ollama 服务器连接:您可以通过在 Docker 构建过程中设置环境变量来无缝连接到托管在不同地址上的外部 Ollama 服务器。执行以下命令以在 Docker 映像中包含 Ollama API 基本 URL:docker build --build-arg OLLAMA_API_BASE_URL=http://localhost:11434/api -t ollama-webui . 。
持续更新:我们致力于通过定期更新和新功能来改进 Ollama Web UI。
如何安装
先决条件
在继续安装之前,请确保您已安装最新版本的 Ollama。您可以在 https://ollama.ai/ 找到最新版本的 Ollama。
检查Ollama安装后,通过在 Web 浏览器中访问以下链接来验证 Ollama 是否正在运行:http://127.0.0.1:11434/。请注意,端口号可能会根据您的系统配置而有所不同。
通过 LAN 访问 Ollama Web 界面如果您想通过 LAN(例如从手机)访问 Ollama Web 界面,请使用以下命令运行 Ollama:
OLLAMA_HOST=0.0.0.0 OLLAMA_ORIGINS=* ollama serve如果您通过 Docker 运行 Ollama:
docker run -d -v ollama:/root/.ollama -p 11434:11434 -e OLLAMA_ORIGINS="*" --name ollama ollama/ollama使用 Docker
如果 Ollama 托管在您的本地计算机上,请运行以下命令:
docker build --build-arg OLLAMA_API_BASE_URL= -t ollama-webui .docker run -d -p 3000:8080 --name ollama-webui --restart always ollama-webui您的 Ollama Web UI 现在应该托管在 http://localhost:3000。享受!
连接到不同服务器上的 Ollama如果 Ollama 托管在本地计算机以外的服务器上,请更改 OLLAMA_API_BASE_URL 以匹配:
docker build --build-arg OLLAMA_API_BASE_URL=https://example.com/api -t ollama-webui .docker run -d -p 3000:8080 --name ollama-webui --restart always ollama-webui项目链接
https://github.com/ollama-webui/ollama-webui
关注「GitHubStore」公众号
扫一扫以下微信
1 加入技术交流群,备注「开发语言-城市-昵称」