在当今时代,人工智能(AI)和机器学习模型的使用越来越普遍。为了方便使用这些模型,许多开发者希望能够在本地环境中搭建一个轻量级的WebUI,以便于与模型进行交互。在这篇文章中,我们将介绍如何在Windows上本地安装一个WebUI,用于操作Ollama机器学习模型,而无需使用Docker。我们将使用Python的Flask框架来构建这个WebUI。

准备工作

在开始之前,请确保您的Windows电脑上安装了Python(建议使用Python 3.7或更高版本)。如果您还没有安装Python,可以从Python官网下载并安装。

接下来,请安装Flask和其他必要的库。在命令行中运行以下命令:

pip install Flask requests

创建项目目录

在您的计算机上创建一个新的项目文件夹,例如OllamaWebUI,并在该目录中创建以下文件结构:

OllamaWebUI/
    ├── app.py
    └── templates/
        └── index.html

编写Flask应用

app.py中编写Flask代码,以便我们可以创建一个简单的WebUI。以下是一个示范代码:

from flask import Flask, render_template, request
import requests

app = Flask(__name__)

OLLAMA_API_URL = "http://localhost:5000/api"  # Ollama的API

@app.route('/')
def index():
    return render_template('index.html')

@app.route('/query', methods=['POST'])
def query():
    user_input = request.form['input_text']

    # 将用户输入发送到Ollama API
    response = requests.post(f"{OLLAMA_API_URL}/run", json={"input": user_input})

    if response.status_code == 200:
        result = response.json()
        output_text = result.get('output', '没有返回结果')
    else:
        output_text = '请求失败,状态码:{}'.format(response.status_code)

    return render_template('index.html', input_text=user_input, output_text=output_text)

if __name__ == '__main__':
    app.run(debug=True)

编写HTML模板

templates/index.html中,我们需要创建一个简单的HTML界面,使用户可以输入文本并获取结果。以下是一个示范代码:

<!DOCTYPE html>
<html lang="zh">
<head>
    <meta charset="UTF-8">
    <meta name="viewport" content="width=device-width, initial-scale=1.0">
    <title>Ollama WebUI</title>
</head>
<body>
    <h1>Ollama WebUI</h1>
    <form method="POST" action="/query">
        <textarea name="input_text" rows="4" cols="50" placeholder="在此输入文本...">{{ input_text }}</textarea>
        <br>
        <button type="submit">提交</button>
    </form>
    {% if output_text %}
        <h2>输出结果:</h2>
        <p>{{ output_text }}</p>
    {% endif %}
</body>
</html>

启动应用

在命令行中,导航到OllamaWebUI目录,并运行以下命令来启动Flask应用:

python app.py

默认情况下,Flask将启动在http://127.0.0.1:5000上。打开您的浏览器,访问该地址,您将看到一个简单的Web界面。

总结

通过上述步骤,您已经成功在Windows上安装并运行了一个用于交互Ollama机器学习模型的WebUI,而无需使用Docker。此方法简单高效,适合需要快速开发和测试的场景。您可以根据需要扩展此应用,例如添加更多功能,或与其他API进行集成。希望这篇文章对您有所帮助,祝您在AI的道路上越走越远!

点赞(0) 打赏

微信小程序

微信扫一扫体验

微信公众账号

微信扫一扫加关注

发表
评论
返回
顶部