在当今时代,人工智能(AI)和机器学习模型的使用越来越普遍。为了方便使用这些模型,许多开发者希望能够在本地环境中搭建一个轻量级的WebUI,以便于与模型进行交互。在这篇文章中,我们将介绍如何在Windows上本地安装一个WebUI,用于操作Ollama机器学习模型,而无需使用Docker。我们将使用Python的Flask框架来构建这个WebUI。
准备工作
在开始之前,请确保您的Windows电脑上安装了Python(建议使用Python 3.7或更高版本)。如果您还没有安装Python,可以从Python官网下载并安装。
接下来,请安装Flask和其他必要的库。在命令行中运行以下命令:
pip install Flask requests
创建项目目录
在您的计算机上创建一个新的项目文件夹,例如OllamaWebUI
,并在该目录中创建以下文件结构:
OllamaWebUI/
├── app.py
└── templates/
└── index.html
编写Flask应用
在app.py
中编写Flask代码,以便我们可以创建一个简单的WebUI。以下是一个示范代码:
from flask import Flask, render_template, request
import requests
app = Flask(__name__)
OLLAMA_API_URL = "http://localhost:5000/api" # Ollama的API
@app.route('/')
def index():
return render_template('index.html')
@app.route('/query', methods=['POST'])
def query():
user_input = request.form['input_text']
# 将用户输入发送到Ollama API
response = requests.post(f"{OLLAMA_API_URL}/run", json={"input": user_input})
if response.status_code == 200:
result = response.json()
output_text = result.get('output', '没有返回结果')
else:
output_text = '请求失败,状态码:{}'.format(response.status_code)
return render_template('index.html', input_text=user_input, output_text=output_text)
if __name__ == '__main__':
app.run(debug=True)
编写HTML模板
在templates/index.html
中,我们需要创建一个简单的HTML界面,使用户可以输入文本并获取结果。以下是一个示范代码:
<!DOCTYPE html>
<html lang="zh">
<head>
<meta charset="UTF-8">
<meta name="viewport" content="width=device-width, initial-scale=1.0">
<title>Ollama WebUI</title>
</head>
<body>
<h1>Ollama WebUI</h1>
<form method="POST" action="/query">
<textarea name="input_text" rows="4" cols="50" placeholder="在此输入文本...">{{ input_text }}</textarea>
<br>
<button type="submit">提交</button>
</form>
{% if output_text %}
<h2>输出结果:</h2>
<p>{{ output_text }}</p>
{% endif %}
</body>
</html>
启动应用
在命令行中,导航到OllamaWebUI
目录,并运行以下命令来启动Flask应用:
python app.py
默认情况下,Flask将启动在http://127.0.0.1:5000
上。打开您的浏览器,访问该地址,您将看到一个简单的Web界面。
总结
通过上述步骤,您已经成功在Windows上安装并运行了一个用于交互Ollama机器学习模型的WebUI,而无需使用Docker。此方法简单高效,适合需要快速开发和测试的场景。您可以根据需要扩展此应用,例如添加更多功能,或与其他API进行集成。希望这篇文章对您有所帮助,祝您在AI的道路上越走越远!