当前位置:首页>学习笔记>多模态大模型学习笔记(十八)——基于 DeepSeek-7B 的 LoRA 微调训练实战教程

多模态大模型学习笔记(十八)——基于 DeepSeek-7B 的 LoRA 微调训练实战教程

  • 2026-03-24 16:16:13
多模态大模型学习笔记(十八)——基于 DeepSeek-7B 的 LoRA 微调训练实战教程

基于 DeepSeek-7B 的 LoRA 微调训练实战教程

点击下方卡片,关注“人工智能陈小白

视觉/大模型/图像重磅干货,第一时间送达!

1、什么是 LoRA 微调?

1.1 传统微调 vs LoRA 微调

在了解 LoRA 之前,我们先回顾一下传统的模型微调方法:

方法
特点
显存需求
训练时间
全参数微调
调整模型所有参数
极高(~28GB)
很长
LoRA 微调
只训练少量新增参数
较低(~6GB)
较短

1.2 LoRA 原理详解

LoRA(Low-Rank Adaptation,低秩适配) 的核心思想是:在不改变原始模型参数的情况下,通过添加少量可训练的低秩矩阵来微调模型

原始模型前向传播:    h = W × xLoRA 改进后:        h = W × x + (ΔW) × x                     h = W × x + BA × x其中:- W:原始模型的预训练权重(冻结,不更新)- B、A:新增的可训练低秩矩阵(r × d 和 d × r)- r:秩(Rank),通常设为 8、16、32

1.3 LoRA 的优势

✅ 参数效率高:只需训练约 0.1%-1% 的参数✅ 显存需求低:4bit 量化 + LoRA 可在消费级 GPU 上训练✅ 部署便捷:只需保存增量权重(几十MB),无需保存整个模型✅ 效果出色:在多项任务上可达到接近全参数微调的效果


2、数据集准备

2.1 三元组数据格式

本项目使用指令微调(Instruction Tuning) 方式,数据格式为三元组:

{"instruction":"基于《三国演义》文档回答问题,必须标注信息来源(格式:文件名+位置),答案需严格匹配文档内容,不添加外部知识","input":"桃园三结义的三位人物是谁?","output":"桃园三结义的三位人物分别是刘备、关羽和张飞。三人在桃园中祭告天地,结为异姓兄弟,约定同心协力共图大业。信息来源:《三国演义》.txt第8行、《三国演义》.docx第5段"}

三个字段的含义:

字段
含义
作用
instruction
任务指令
告诉模型要做什么
input
用户输入
具体的问题或请求
output
期望输出
模型应该生成的答案

2.2 数据集来源

本项目的训练数据基于中国古典名著

  • • 《三国演义》
  • • 《水浒传》
  • • 《西游记》

2.3 数据加载代码

defload_triple_data(data_path):"""加载三元组训练数据"""ifnot os.path.exists(data_path):raise FileNotFoundError(f"三元组数据文件不存在:{data_path}")withopen(data_path, 'r', encoding='utf-8'as f:        data = json.load(f)# 验证数据格式    required_keys = ["instruction""input""output"]for i, item inenumerate(data):ifnotall(key in item for key in required_keys):raise ValueError(f"第{i}条数据格式错误,需包含{required_keys}")print(f"成功加载三元组数据,共{len(data)}条样本")return data

3、训练流程详解

3.1 整体流程图

3.2 格式化训练文本

将三元组数据转换为模型可训练的指令格式:

defformat_train_text(example):"""    将三元组转换为模型训练格式(指令微调常用格式)    格式:"### 指令:{instruction}\n### 输入:{input}\n### 输出:{output}"    """returnf"""### 指令:{example['instruction']}### 输入:{example['input']}### 输出:{example['output']}"""

转换效果:

原始数据:

{"instruction":"基于《三国演义》文档回答问题...","input":"桃园三结义的三位人物是谁?","output":"桃园三结义的三位人物分别是刘备、关羽和张飞..."}

转换后:


4、核心代码讲解

4.1 基础模型加载

defload_base_model(model_path):"""加载基础模型(DeepSeek-7B-base),启用4位量化节省内存"""# 4位量化配置    bnb_config = BitsAndBytesConfig(        load_in_4bit=True,              # 开启 4bit 量化        bnb_4bit_use_double_quant=True# 双重量化,进一步压缩        bnb_4bit_quant_type="nf4",     # 使用 NF4 量化类型        bnb_4bit_compute_dtype=torch.bfloat16  # 计算时使用 bf16    )# 加载分词器    tokenizer = AutoTokenizer.from_pretrained(model_path, use_fast=False)    tokenizer.pad_token = tokenizer.eos_token  # 设置 pad_token# 加载模型(4bit 量化)    model = AutoModelForCausalLM.from_pretrained(        model_path,        quantization_config=bnb_config,        device_map="auto",              # 自动分配设备        trust_remote_code=True    )# 准备模型用于量化训练    model = prepare_model_for_kbit_training(model)return model, tokenizer

关键参数说明:

参数
作用
说明
load_in_4bit=True
4bit 量化
将模型压缩到 4bit,显存降低 75%
double_quant=True
双重量化
进一步压缩,节省约 0.4 bit/参数
device_map="auto"
自动设备分配
自动将模型分配到 GPU/CPU
prepare_model_for_kbit_training
准备量化训练
冻结非量化参数,添加梯度支持

4.2 LoRA 配置

defsetup_lora(model, r=8, lora_alpha=32, lora_dropout=0.05):"""配置LoRA参数并应用到模型"""# 找到模型中所有线性层    modules = find_all_linear_names(model)# LoRA 配置    lora_config = LoraConfig(        r=r,                    # 秩(Rank),控制低秩矩阵维度        lora_alpha=lora_alpha,  # LoRA 缩放参数        target_modules=modules, # 要应用 LoRA 的模块        lora_dropout=lora_dropout,  # Dropout 比例,防止过拟合        bias="none",            # 不训练 bias        task_type="CAUSAL_LM"# 任务类型:因果语言模型    )# 应用 LoRA 到模型    model = get_peft_model(model, lora_config)    model.print_trainable_parameters()  # 打印可训练参数比例return model

LoRA 参数详解:

参数
默认值
说明
r
(秩)
8
LoRA 矩阵的维度,越大表达能力越强,但参数量也增加
lora_alpha
32
LoRA 缩放参数,通常设为 r 的 2-4 倍
target_modules
-
要应用 LoRA 的层,通常是 QKV 注意力层
lora_dropout
0.05
LoRA 层的 Dropout 比例

典型配置对比:

配置
r
lora_alpha
可训练参数比例
轻量级
4
16
~0.1%
平衡型
8
32
~0.27%
强力型
16
64
~0.5%

4.3 训练数据处理

deftokenize_function(example):"""将训练文本转换为模型输入格式"""# 格式化训练文本    text = format_train_text(example)# Tokenize 编码    result = tokenizer(        text,        truncation=True,           # 截断超长文本        max_length=1024,         # 最大长度 1024 token        padding="max_length",    # 填充到最大长度        return_tensors="pt"# 返回 PyTorch 张量    )# 处理张量维度(去除批次维)    result["input_ids"] = result["input_ids"].squeeze()    result["attention_mask"] = result["attention_mask"].squeeze()# 对于 Causal LM,labels 就是 input_ids    result["labels"] = result["input_ids"].clone()return result# 处理数据集tokenized_dataset = dataset.map(    tokenize_function,    batched=False,    remove_columns=dataset.column_names  # 移除原始列)

数据处理流程:

原始数据 (JSON)    ↓ format_train_text()格式化文本 (带指令格式的字符串)    ↓ tokenizer()Token IDs + Attention Mask + Labels (PyTorch Tensor)    ↓ dataset.map()HuggingFace Dataset (可用于训练)

4.4 训练参数配置

training_args = TrainingArguments(    output_dir="./lora_results",           # 输出目录    per_device_train_batch_size=2,         # 每设备批次大小    gradient_accumulation_steps=4,         # 梯度累积步数    learning_rate=2e-4,                   # 学习率(LoRA 常用值)    num_train_epochs=3,                   # 训练轮次    logging_steps=10,                     # 日志打印间隔    save_steps=50,                        # 模型保存间隔    warmup_ratio=0.1,                     # 学习率预热比例    optim="paged_adamw_8bit",             # 8位优化器,节省显存    report_to="none",                     # 不使用外部日志    push_to_hub=False# 不推送到 Hub)

关键参数说明:

参数
说明
per_device_train_batch_size
2
每 GPU 批次大小,7B 模型建议 2-4
gradient_accumulation_steps
4
梯度累积,实际批次 = 2 × 4 = 8
learning_rate
2e-4
LoRA 推荐学习率(比全参数微调大)
num_train_epochs
3
小数据集 3-5 轮即可
optim
paged_adamw_8bit
8 位 AdamW,优化器显存减半

5、运行与结果

5.1 运行命令

执行

python main.py

5.2 运行输出

5.3 训练结果统计

指标
数值
训练样本数
27 条
基础模型
DeepSeek-LLM-7B-base
可训练参数
18,739,200
总参数
6,929,104,896
可训练参数比例0.27%
训练轮次
3 epochs
训练时间
66.73 秒
最终 Loss
13.17
LoRA 权重大小
~20 MB

##8、使用微调后的模型

6.1 加载 LoRA 权重

from peft import PeftModelfrom transformers import AutoModelForCausalLM, AutoTokenizer# 加载基础模型base_model = AutoModelForCausalLM.from_pretrained("/root/models/deepseek-llm-7b-base/deepseek-ai/deepseek-llm-7b-base",    quantization_config=bnb_config,    device_map="auto",    trust_remote_code=True)# 加载 LoRA 权重lora_model = PeftModel.from_pretrained(    base_model,"/root/autodl-fs/class-2/lora_results/lora_weights")# 合并权重(可选,用于推理)merged_model = lora_model.merge_and_unload()

6.2 测试微调效果

# 构建输入prompt = "### 指令:基于《三国演义》文档回答问题,必须标注信息来源\n### 输入:刘备在长坂坡发生了什么?\n### 输出:"# 生成inputs = tokenizer(prompt, return_tensors="pt").to("cuda")outputs = model.generate(**inputs, max_new_tokens=200)answer = tokenizer.decode(outputs[0], skip_special_tokens=True)print(answer)

7、常见问题与解决

问题 1:显存不足

错误:

RuntimeError: CUDA out of memory

解决方案:

  • • 减小 per_device_train_batch_size
  • • 增大 gradient_accumulation_steps
  • • 启用 4bit 量化

问题 2:Tokenizer 报错

错误:

ValueError: Couldn't instantiate the backend tokenizer

解决方案:

tokenizer = AutoTokenizer.from_pretrained(model_path, use_fast=False)# 或安装 sentencepiecepip install sentencepiece

问题 3:数据格式错误

错误:

json.decoder.JSONDecodeError

解决方案:

  • • 检查 JSON 文件是否完整(是否有缺失的 ]
  • • 确保每条数据都有 instructioninputoutput 三个字段

8、总结

8.1 技术要点回顾

  1. 1. LoRA 原理:通过低秩矩阵实现参数高效微调
  2. 2. 4bit 量化:大幅降低显存需求,消费级 GPU 可训练
  3. 3. 指令微调:使用三元组数据教会模型回答格式
  4. 4. 数据处理:格式化 + Tokenize + Labels 准备

8.2 训练效果

  • • 仅用 27 条样本,训练 66 秒
  • • 可训练参数比例仅 0.27%
  • • 生成约 20MB 的 LoRA 权重文件
  • • 后续可加载权重进行问答测试

8.3 后续优化方向

  • • 增加训练数据量(建议 100+ 条)
  • • 调整 LoRA 参数(r=16 提升效果)
  • • 使用更大基础模型(DeepSeek-67B)
  • • 添加验证集评估模型效果

附录:完整

环境依赖

pip install torch transformers peft bitsandbytes datasets sentencepiece

核心函数清单

函数名
功能
load_triple_data()
加载并验证三元组数据
format_train_text()
格式化训练文本
find_all_linear_names()
查找模型中的线性层
load_base_model()
加载基础模型(4bit 量化)
setup_lora()
配置并应用 LoRA
tokenize_function()
Tokenize 训练数据
train_lora()
执行训练流程

欢迎同学加入人工智能圈交流群

最新文章

随机文章

基本 文件 流程 错误 SQL 调试
  1. 请求信息 : 2026-03-25 21:56:18 HTTP/2.0 GET : https://67808.cn/a/475173.html
  2. 运行时间 : 0.259543s [ 吞吐率:3.85req/s ] 内存消耗:4,420.35kb 文件加载:140
  3. 缓存信息 : 0 reads,0 writes
  4. 会话信息 : SESSION_ID=ca92269d3f54c2061345be140f0e6ace
  1. /yingpanguazai/ssd/ssd1/www/no.67808.cn/public/index.php ( 0.79 KB )
  2. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/autoload.php ( 0.17 KB )
  3. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/composer/autoload_real.php ( 2.49 KB )
  4. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/composer/platform_check.php ( 0.90 KB )
  5. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/composer/ClassLoader.php ( 14.03 KB )
  6. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/composer/autoload_static.php ( 4.90 KB )
  7. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/topthink/think-helper/src/helper.php ( 8.34 KB )
  8. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/topthink/think-validate/src/helper.php ( 2.19 KB )
  9. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/topthink/think-orm/src/helper.php ( 1.47 KB )
  10. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/topthink/think-orm/stubs/load_stubs.php ( 0.16 KB )
  11. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/topthink/framework/src/think/Exception.php ( 1.69 KB )
  12. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/topthink/think-container/src/Facade.php ( 2.71 KB )
  13. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/symfony/deprecation-contracts/function.php ( 0.99 KB )
  14. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/symfony/polyfill-mbstring/bootstrap.php ( 8.26 KB )
  15. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/symfony/polyfill-mbstring/bootstrap80.php ( 9.78 KB )
  16. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/symfony/var-dumper/Resources/functions/dump.php ( 1.49 KB )
  17. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/topthink/think-dumper/src/helper.php ( 0.18 KB )
  18. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/symfony/var-dumper/VarDumper.php ( 4.30 KB )
  19. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/topthink/framework/src/think/App.php ( 15.30 KB )
  20. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/topthink/think-container/src/Container.php ( 15.76 KB )
  21. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/psr/container/src/ContainerInterface.php ( 1.02 KB )
  22. /yingpanguazai/ssd/ssd1/www/no.67808.cn/app/provider.php ( 0.19 KB )
  23. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/topthink/framework/src/think/Http.php ( 6.04 KB )
  24. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/topthink/think-helper/src/helper/Str.php ( 7.29 KB )
  25. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/topthink/framework/src/think/Env.php ( 4.68 KB )
  26. /yingpanguazai/ssd/ssd1/www/no.67808.cn/app/common.php ( 0.03 KB )
  27. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/topthink/framework/src/helper.php ( 18.78 KB )
  28. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/topthink/framework/src/think/Config.php ( 5.54 KB )
  29. /yingpanguazai/ssd/ssd1/www/no.67808.cn/config/app.php ( 0.95 KB )
  30. /yingpanguazai/ssd/ssd1/www/no.67808.cn/config/cache.php ( 0.78 KB )
  31. /yingpanguazai/ssd/ssd1/www/no.67808.cn/config/console.php ( 0.23 KB )
  32. /yingpanguazai/ssd/ssd1/www/no.67808.cn/config/cookie.php ( 0.56 KB )
  33. /yingpanguazai/ssd/ssd1/www/no.67808.cn/config/database.php ( 2.48 KB )
  34. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/topthink/framework/src/think/facade/Env.php ( 1.67 KB )
  35. /yingpanguazai/ssd/ssd1/www/no.67808.cn/config/filesystem.php ( 0.61 KB )
  36. /yingpanguazai/ssd/ssd1/www/no.67808.cn/config/lang.php ( 0.91 KB )
  37. /yingpanguazai/ssd/ssd1/www/no.67808.cn/config/log.php ( 1.35 KB )
  38. /yingpanguazai/ssd/ssd1/www/no.67808.cn/config/middleware.php ( 0.19 KB )
  39. /yingpanguazai/ssd/ssd1/www/no.67808.cn/config/route.php ( 1.89 KB )
  40. /yingpanguazai/ssd/ssd1/www/no.67808.cn/config/session.php ( 0.57 KB )
  41. /yingpanguazai/ssd/ssd1/www/no.67808.cn/config/trace.php ( 0.34 KB )
  42. /yingpanguazai/ssd/ssd1/www/no.67808.cn/config/view.php ( 0.82 KB )
  43. /yingpanguazai/ssd/ssd1/www/no.67808.cn/app/event.php ( 0.25 KB )
  44. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/topthink/framework/src/think/Event.php ( 7.67 KB )
  45. /yingpanguazai/ssd/ssd1/www/no.67808.cn/app/service.php ( 0.13 KB )
  46. /yingpanguazai/ssd/ssd1/www/no.67808.cn/app/AppService.php ( 0.26 KB )
  47. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/topthink/framework/src/think/Service.php ( 1.64 KB )
  48. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/topthink/framework/src/think/Lang.php ( 7.35 KB )
  49. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/topthink/framework/src/lang/zh-cn.php ( 13.70 KB )
  50. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/topthink/framework/src/think/initializer/Error.php ( 3.31 KB )
  51. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/topthink/framework/src/think/initializer/RegisterService.php ( 1.33 KB )
  52. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/services.php ( 0.14 KB )
  53. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/topthink/framework/src/think/service/PaginatorService.php ( 1.52 KB )
  54. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/topthink/framework/src/think/service/ValidateService.php ( 0.99 KB )
  55. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/topthink/framework/src/think/service/ModelService.php ( 2.04 KB )
  56. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/topthink/think-trace/src/Service.php ( 0.77 KB )
  57. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/topthink/framework/src/think/Middleware.php ( 6.72 KB )
  58. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/topthink/framework/src/think/initializer/BootService.php ( 0.77 KB )
  59. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/topthink/think-orm/src/Paginator.php ( 11.86 KB )
  60. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/topthink/think-validate/src/Validate.php ( 63.20 KB )
  61. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/topthink/think-orm/src/Model.php ( 23.55 KB )
  62. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/topthink/think-orm/src/model/concern/Attribute.php ( 21.05 KB )
  63. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/topthink/think-orm/src/model/concern/AutoWriteData.php ( 4.21 KB )
  64. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/topthink/think-orm/src/model/concern/Conversion.php ( 6.44 KB )
  65. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/topthink/think-orm/src/model/concern/DbConnect.php ( 5.16 KB )
  66. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/topthink/think-orm/src/model/concern/ModelEvent.php ( 2.33 KB )
  67. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/topthink/think-orm/src/model/concern/RelationShip.php ( 28.29 KB )
  68. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/topthink/think-helper/src/contract/Arrayable.php ( 0.09 KB )
  69. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/topthink/think-helper/src/contract/Jsonable.php ( 0.13 KB )
  70. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/topthink/think-orm/src/model/contract/Modelable.php ( 0.09 KB )
  71. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/topthink/framework/src/think/Db.php ( 2.88 KB )
  72. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/topthink/think-orm/src/DbManager.php ( 8.52 KB )
  73. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/topthink/framework/src/think/Log.php ( 6.28 KB )
  74. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/topthink/framework/src/think/Manager.php ( 3.92 KB )
  75. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/psr/log/src/LoggerTrait.php ( 2.69 KB )
  76. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/psr/log/src/LoggerInterface.php ( 2.71 KB )
  77. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/topthink/framework/src/think/Cache.php ( 4.92 KB )
  78. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/psr/simple-cache/src/CacheInterface.php ( 4.71 KB )
  79. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/topthink/think-helper/src/helper/Arr.php ( 16.63 KB )
  80. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/topthink/framework/src/think/cache/driver/File.php ( 7.84 KB )
  81. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/topthink/framework/src/think/cache/Driver.php ( 9.03 KB )
  82. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/topthink/framework/src/think/contract/CacheHandlerInterface.php ( 1.99 KB )
  83. /yingpanguazai/ssd/ssd1/www/no.67808.cn/app/Request.php ( 0.09 KB )
  84. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/topthink/framework/src/think/Request.php ( 55.78 KB )
  85. /yingpanguazai/ssd/ssd1/www/no.67808.cn/app/middleware.php ( 0.25 KB )
  86. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/topthink/framework/src/think/Pipeline.php ( 2.61 KB )
  87. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/topthink/think-trace/src/TraceDebug.php ( 3.40 KB )
  88. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/topthink/framework/src/think/middleware/SessionInit.php ( 1.94 KB )
  89. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/topthink/framework/src/think/Session.php ( 1.80 KB )
  90. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/topthink/framework/src/think/session/driver/File.php ( 6.27 KB )
  91. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/topthink/framework/src/think/contract/SessionHandlerInterface.php ( 0.87 KB )
  92. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/topthink/framework/src/think/session/Store.php ( 7.12 KB )
  93. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/topthink/framework/src/think/Route.php ( 23.73 KB )
  94. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/topthink/framework/src/think/route/RuleName.php ( 5.75 KB )
  95. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/topthink/framework/src/think/route/Domain.php ( 2.53 KB )
  96. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/topthink/framework/src/think/route/RuleGroup.php ( 22.43 KB )
  97. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/topthink/framework/src/think/route/Rule.php ( 26.95 KB )
  98. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/topthink/framework/src/think/route/RuleItem.php ( 9.78 KB )
  99. /yingpanguazai/ssd/ssd1/www/no.67808.cn/route/app.php ( 1.72 KB )
  100. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/topthink/framework/src/think/facade/Route.php ( 4.70 KB )
  101. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/topthink/framework/src/think/route/dispatch/Controller.php ( 4.74 KB )
  102. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/topthink/framework/src/think/route/Dispatch.php ( 10.44 KB )
  103. /yingpanguazai/ssd/ssd1/www/no.67808.cn/app/controller/Index.php ( 4.81 KB )
  104. /yingpanguazai/ssd/ssd1/www/no.67808.cn/app/BaseController.php ( 2.05 KB )
  105. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/topthink/think-orm/src/facade/Db.php ( 0.93 KB )
  106. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/topthink/think-orm/src/db/connector/Mysql.php ( 5.44 KB )
  107. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/topthink/think-orm/src/db/PDOConnection.php ( 52.47 KB )
  108. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/topthink/think-orm/src/db/Connection.php ( 8.39 KB )
  109. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/topthink/think-orm/src/db/ConnectionInterface.php ( 4.57 KB )
  110. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/topthink/think-orm/src/db/builder/Mysql.php ( 16.58 KB )
  111. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/topthink/think-orm/src/db/Builder.php ( 24.06 KB )
  112. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/topthink/think-orm/src/db/BaseBuilder.php ( 27.50 KB )
  113. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/topthink/think-orm/src/db/Query.php ( 15.71 KB )
  114. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/topthink/think-orm/src/db/BaseQuery.php ( 45.13 KB )
  115. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/topthink/think-orm/src/db/concern/TimeFieldQuery.php ( 7.43 KB )
  116. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/topthink/think-orm/src/db/concern/AggregateQuery.php ( 3.26 KB )
  117. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/topthink/think-orm/src/db/concern/ModelRelationQuery.php ( 20.07 KB )
  118. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/topthink/think-orm/src/db/concern/ParamsBind.php ( 3.66 KB )
  119. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/topthink/think-orm/src/db/concern/ResultOperation.php ( 7.01 KB )
  120. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/topthink/think-orm/src/db/concern/WhereQuery.php ( 19.37 KB )
  121. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/topthink/think-orm/src/db/concern/JoinAndViewQuery.php ( 7.11 KB )
  122. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/topthink/think-orm/src/db/concern/TableFieldInfo.php ( 2.63 KB )
  123. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/topthink/think-orm/src/db/concern/Transaction.php ( 2.77 KB )
  124. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/topthink/framework/src/think/log/driver/File.php ( 5.96 KB )
  125. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/topthink/framework/src/think/contract/LogHandlerInterface.php ( 0.86 KB )
  126. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/topthink/framework/src/think/log/Channel.php ( 3.89 KB )
  127. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/topthink/framework/src/think/event/LogRecord.php ( 1.02 KB )
  128. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/topthink/think-helper/src/Collection.php ( 16.47 KB )
  129. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/topthink/framework/src/think/facade/View.php ( 1.70 KB )
  130. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/topthink/framework/src/think/View.php ( 4.39 KB )
  131. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/topthink/framework/src/think/Response.php ( 8.81 KB )
  132. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/topthink/framework/src/think/response/View.php ( 3.29 KB )
  133. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/topthink/framework/src/think/Cookie.php ( 6.06 KB )
  134. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/topthink/think-view/src/Think.php ( 8.38 KB )
  135. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/topthink/framework/src/think/contract/TemplateHandlerInterface.php ( 1.60 KB )
  136. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/topthink/think-template/src/Template.php ( 46.61 KB )
  137. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/topthink/think-template/src/template/driver/File.php ( 2.41 KB )
  138. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/topthink/think-template/src/template/contract/DriverInterface.php ( 0.86 KB )
  139. /yingpanguazai/ssd/ssd1/www/no.67808.cn/runtime/temp/6df755f970a38e704c5414acbc6e8bcd.php ( 12.06 KB )
  140. /yingpanguazai/ssd/ssd1/www/no.67808.cn/vendor/topthink/think-trace/src/Html.php ( 4.42 KB )
  1. CONNECT:[ UseTime:0.001231s ] mysql:host=127.0.0.1;port=3306;dbname=no_67808;charset=utf8mb4
  2. SHOW FULL COLUMNS FROM `fenlei` [ RunTime:0.001537s ]
  3. SELECT * FROM `fenlei` WHERE `fid` = 0 [ RunTime:0.000713s ]
  4. SELECT * FROM `fenlei` WHERE `fid` = 63 [ RunTime:0.000669s ]
  5. SHOW FULL COLUMNS FROM `set` [ RunTime:0.001305s ]
  6. SELECT * FROM `set` [ RunTime:0.000601s ]
  7. SHOW FULL COLUMNS FROM `article` [ RunTime:0.001508s ]
  8. SELECT * FROM `article` WHERE `id` = 475173 LIMIT 1 [ RunTime:0.001613s ]
  9. UPDATE `article` SET `lasttime` = 1774446978 WHERE `id` = 475173 [ RunTime:0.027593s ]
  10. SELECT * FROM `fenlei` WHERE `id` = 65 LIMIT 1 [ RunTime:0.006642s ]
  11. SELECT * FROM `article` WHERE `id` < 475173 ORDER BY `id` DESC LIMIT 1 [ RunTime:0.001204s ]
  12. SELECT * FROM `article` WHERE `id` > 475173 ORDER BY `id` ASC LIMIT 1 [ RunTime:0.030724s ]
  13. SELECT * FROM `article` WHERE `id` < 475173 ORDER BY `id` DESC LIMIT 10 [ RunTime:0.016664s ]
  14. SELECT * FROM `article` WHERE `id` < 475173 ORDER BY `id` DESC LIMIT 10,10 [ RunTime:0.002073s ]
  15. SELECT * FROM `article` WHERE `id` < 475173 ORDER BY `id` DESC LIMIT 20,10 [ RunTime:0.001821s ]
0.263248s