news 2026/4/18 7:09:32

day37简单的神经网络@浙大疏锦行

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
day37简单的神经网络@浙大疏锦行

day37简单的神经网络@浙大疏锦行

使用 sklearn 的 load_digits 数据集 (8x8 像素的手写数字) 进行 MLP 训练。

importtorchimporttorch.nnasnnimporttorch.optimasoptimfromsklearn.datasetsimportload_digitsfromsklearn.model_selectionimporttrain_test_splitfromsklearn.preprocessingimportMinMaxScalerimportnumpyasnpimportmatplotlib.pyplotasplt# 1. 加载数据digits=load_digits()X=digits.data y=digits.targetprint(f"数据形状:{X.shape}")print(f"标签形状:{y.shape}")# 查看一张图片plt.imshow(digits.images[0],cmap='gray')plt.title(f"Label:{y[0]}")plt.show()

数据形状: (1797, 64) 标签形状: (1797,)

# 2. 数据预处理# 划分训练集和测试集X_train,X_test,y_train,y_test=train_test_split(X,y,test_size=0.2,random_state=42)# 归一化scaler=MinMaxScaler()X_train=scaler.fit_transform(X_train)X_test=scaler.transform(X_test)# 转换为 TensorX_train=torch.FloatTensor(X_train)y_train=torch.LongTensor(y_train)X_test=torch.FloatTensor(X_test)y_test=torch.LongTensor(y_test)print("训练集 Tensor 形状:",X_train.shape)print("测试集 Tensor 形状:",X_test.shape)

训练集 Tensor 形状: torch.Size([1437, 64])

测试集 Tensor 形状: torch.Size([360, 64])

# 3. 定义模型classMLP(nn.Module):def__init__(self):super(MLP,self).__init__()# 输入层 64 (8*8像素) -> 隐藏层 32 -> 输出层 10 (0-9数字)self.fc1=nn.Linear(64,32)self.relu=nn.ReLU()self.fc2=nn.Linear(32,10)defforward(self,x):out=self.fc1(x)out=self.relu(out)out=self.fc2(out)returnout model=MLP()print(model)

MLP(

(fc1): Linear(in_features=64, out_features=32, bias=True) (relu): ReLU()

(fc2): Linear(in_features=32, out_features=10, bias=True)

)

# 4. 定义损失函数和优化器criterion=nn.CrossEntropyLoss()optimizer=optim.SGD(model.parameters(),lr=0.1)# 学习率稍微调大一点,或者增加epoch
# 5. 训练模型num_epochs=2000losses=[]forepochinrange(num_epochs):# 前向传播outputs=model(X_train)loss=criterion(outputs,y_train)# 反向传播和优化optimizer.zero_grad()loss.backward()optimizer.step()losses.append(loss.item())if(epoch+1)%100==0:print(f'Epoch [{epoch+1}/{num_epochs}], Loss:{loss.item():.4f}')

# 6. 可视化损失plt.plot(range(num_epochs),losses)plt.xlabel('Epoch')plt.ylabel('Loss')plt.title('Training Loss')plt.show()

# 7. 模型评估withtorch.no_grad():# 训练集准确率outputs_train=model(X_train)_,predicted_train=torch.max(outputs_train,1)accuracy_train=(predicted_train==y_train).sum().item()/y_train.size(0)# 测试集准确率outputs_test=model(X_test)_,predicted_test=torch.max(outputs_test,1)accuracy_test=(predicted_test==y_test).sum().item()/y_test.size(0)print(f'训练集准确率:{accuracy_train:.4f}')print(f'测试集准确率:{accuracy_test:.4f}')

@浙大疏锦行

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/18 3:26:07

python训练营打卡day11

浙大疏锦行 知识点: 1.网格搜索 2.随机搜索 3.贝叶斯优化 4.time库的记时模块 5.代理模型的思想 6.给ai提问 1. 概述 核心知识点回顾 模型组成 算法 实例化设置的外参(超参数) 训练得到的内参 调参原则:只要调参就需要…

作者头像 李华
网站建设 2026/4/18 3:26:55

关于链表中元素的交换的操作

给定一个链表,对于每两个相邻的结点,交换其位置。如 1->2->3->4->null,返回2->1->3->4->null只能对结点进行操作,不能修改结点的值,只能操作结点(整个)或结点对应的指针…

作者头像 李华
网站建设 2026/4/18 3:25:37

【大模型预训练】07-数据处理流程设计:从原始数据到模型输入的端到端处理链路

引言数据处理流程设计是现代数据科学和机器学习领域中不可或缺的一环。它涵盖了从原始数据采集到最终模型输入的整个端到端处理链路,确保数据在各个阶段得到有效管理和转换,从而为后续的分析和建模提供高质量的数据基础。在数据驱动的决策日益重要的今天…

作者头像 李华
网站建设 2026/4/17 20:35:18

2025软件测试面试题及答案

【纯干货!!!】花费了整整3天,整理出来的全网最实用软件测试面试大全,一共30道题目答案的纯干货,希望大家多多支持,建议 点赞!!收藏!!长文警告&…

作者头像 李华
网站建设 2026/4/18 4:26:49

AI中的优化5-无约束非线性规划之凸性

目录 正文 一、核心概念 1. 全局最小、局部最小、严格局部最小 2. 梯度 (1)矩阵的偏导数计算(梯度) (2)Hessian Matrix (3)方向导数与梯度 (4)可行方…

作者头像 李华