在快速发展的人工智能领域,将视觉功能集成到大型语言模型中,可以用于解读图片语义, 从图片中提取出结构化数据。
一、环境配置
在Python中调用大模型, 先要配置好相应的环境。
1.1 安装python包
pip3 install ollama
pip3 install pydantic
pip3 install instructor
1.2 安装Ollama
Ollama是一款开源应用程序,可让您使用 MacOS、Linux 和 Windows 上的命令行界面在本地运行、创建和共享大型语言模型。
Ollama 可以直接从其库中访问各种 LLM,只需一个命令即可下载。下载后,只需执行一个命令即可开始使用。这对于工作量围绕终端窗口的用户非常有帮助。Ollama的安装、配置、使用的详细教程可阅读 教程 | 如何使用 Ollama 下载 & 使用本地大语言模型
1.3 安装大模型
截止2025.2.22, 在 Ollama 网站中公开的 视觉类大模型 有7个, 这里简单介绍其中的两个
- llama3.2-vision 更擅长识别图片中的英文信息
- minicpm-v 模型基于qwen, 更擅长识别图片中的中文信息
打开命令行 cmd (在mac中对应terminal) , 执行安装命令
ollama pull llama3.2-vision:11b
ollama pull minicpm-v:8b
1.4 启动Ollama服务
打开命令行 cmd (在mac中对应terminal) , 执行启动服务命令
ollama serve
二、实验代码
2.1 非结构化输出
截图的文件名 test_screen.png
import ollama
#论文的截图文件 test_screen.png
#注意,代码文件与截图文件同处于一个文件夹内
response = ollama.chat(
model='minicpm-v',
messages=[{
'role': 'user',
'content': '这是一篇什么领域的论文?',
'images': ['test_screen.png']
}]
)
print(response)
Run
ChatResponse(model='minicpm-v', created_at='2025-02-22T13:11:25.766017Z', done=True, done_reason='stop', total_duration=12956488125, load_duration=819433041, prompt_eval_count=461, prompt_eval_duration=9630000000, eval_count=147, eval_duration=2499000000, message=Message(role='assistant', content='这张图片是关于一篇题为“开或关在轨:如何(破碎)的线索影响消费者决策”的文章标题页。该文章由杰基·西尔弗曼和亚历山德拉·巴拉斯奇撰写,探讨了消费者行为的新技术追踪的后果。研究发现,在七项研究中,持续的行为轨迹会引发高消费后的强化,并且如果打破了这些轨迹,则会产生相反的效果,从而影响消费者的决策。所用的研究方法包括跟踪、行为分析以及追踪和监测等工具和技术,以了解线索对不同领域(如体育、学习)的影响。关键词列出了文章的焦点领域:断路器、行为追踪和记录、消费者动机、参与度。', images=None, tool_calls=None))
2.2 结构化输出
设计更详细的提示prompt, 通过使用typing 和pydantic 设计数据结构,输出为字典类数据。
import instructor
import os
from typing import List
from pydantic import BaseModel
from openai import OpenAI
PROMPT = """请分析提供的图片,并从中提取以下信息:
- 标题(title)
- 学科(subject)
- 领域(field)
请以如下格式返回结果:
{
"title": "论文的标题",
"subject": "论文所属学科",
"field": "论文的研究领域",
}"""
#本地已安装大模型minicpm-v
model_name = 'minicpm-v'
base_url = 'http://127.0.0.1:11434/v1'
api_key = 'NA'
#论文的截图文件test_screen.png
#注意,代码文件与截图文件同处于一个文件夹内
image = instructor.Image.from_path("test_screen.png")
client = instructor.from_openai(
OpenAI(
base_url=base_url,
api_key=api_key, # required, but unused
),
mode=instructor.Mode.JSON,
)
class Paper(BaseModel):
title: str
subject: List[str]
field: List[str]
# Create structured output
result = client.chat.completions.create(
model=model_name,
messages=[
{"role": "asistant", "content": PROMPT},
{"role": "user", "content": image},
],
response_model = Paper,
temperature=0.0
)
result.model_dump()
Run
{'title': 'On or Off Track: How (Broken) Streaks Affect Consumer Decisions',
'subject': ['streaks, behavioral tracking and logging, technology, goals and motivation'],
'field': ['consumer behavior', 'marketing research', 'engagement strategies']}
三、讨论
大邓测试发现 结构化输出 很容易出错, 相比之下 非结构化输出 更稳定一些。
相关内容
- PNAS | GPT 是多语言心理文本分析的有效工具
- 教程 | 如何使用 Ollama 下载 & 使用本地大语言模型
- 实验 | 使用本地大模型预测在线评论情感类别和分值
- 实验 | 如何使 Ollama 结构化输出 JSON 样式的结果
- 推荐 | 文本分析库cntext2.x使用手册
- 实验 | 使用本地大模型从文本中提取结构化信息
- 实验 | 使用Ollama本地大模型DIY制作单词书教案PDF
- 实验 | 使用 Crewai 和 Ollama 构建智能体(AI Agent)帮我撰写博客文章