×

Ollama Web UI:Ollama的仿ChatGPT机器人聊天界面

hqy hqy 发表于2025-02-23 04:31:54 浏览20 评论0百度已收录

抢沙发发表评论

项目简介

Ollama 的 ChatGPT 风格 Web 界面 

特点

直观的界面:我们的聊天界面从 ChatGPT 中汲取灵感,确保用户友好的体验。

响应式设计:在桌面和移动设备上享受无缝体验。

快速响应:享受快速响应的性能。

轻松设置:使用 Docker 无缝安装,获得无忧体验。

下载/删除模型:直接从 Web UI 轻松下载或删除模型。

多模型支持:不同聊天模型无缝切换,互动多样。

聊天历史记录:轻松访问和管理您的对话历史记录。

导入/导出聊天历史记录:将您的聊天数据无缝移入和移出平台。

使用高级参数进行微调控制:通过调整温度等参数和定义系统提示来获得更深层次的控制,从而根据您的特定偏好和需求定制对话。

代码语法突出显示:通过我们的语法突出显示功能增强代码的可读性。

外部 Ollama 服务器连接:您可以通过在 Docker 构建过程中设置环境变量来无缝连接到托管在不同地址上的外部 Ollama 服务器。执行以下命令以在 Docker 映像中包含 Ollama API 基本 URL:docker build --build-arg OLLAMA_API_BASE_URL=http://localhost:11434/api -t ollama-webui . 。

持续更新:我们致力于通过定期更新和新功能来改进 Ollama Web UI。

如何安装

先决条件

在继续安装之前,请确保您已安装最新版本的 Ollama。您可以在 https://ollama.ai/ 找到最新版本的 Ollama。

检查Ollama

安装后,通过在 Web 浏览器中访问以下链接来验证 Ollama 是否正在运行:http://127.0.0.1:11434/。请注意,端口号可能会根据您的系统配置而有所不同。

通过 LAN 访问 Ollama Web 界面

如果您想通过 LAN(例如从手机)访问 Ollama Web 界面,请使用以下命令运行 Ollama:

OLLAMA_HOST=0.0.0.0 OLLAMA_ORIGINS=* ollama serve

如果您通过 Docker 运行 Ollama:

docker run -d -v ollama:/root/.ollama -p 11434:11434 -e OLLAMA_ORIGINS="*" --name ollama ollama/ollama

使用 Docker 

如果 Ollama 托管在您的本地计算机上,请运行以下命令:

docker build --build-arg OLLAMA_API_BASE_URL= -t ollama-webui .docker run -d -p 3000:8080 --name ollama-webui --restart always ollama-webui

您的 Ollama Web UI 现在应该托管在 http://localhost:3000。享受!

连接到不同服务器上的 Ollama

如果 Ollama 托管在本地计算机以外的服务器上,请更改 OLLAMA_API_BASE_URL 以匹配:

docker build --build-arg OLLAMA_API_BASE_URL=https://example.com/api -t ollama-webui .docker run -d -p 3000:8080 --name ollama-webui --restart always ollama-webui

项目链接

https://github.com/ollama-webui/ollama-webui

 关注「GitHubStore」公众号

扫一扫以下微信

1 加入技术交流群,备注开发语言-城市-昵称