作业1
题目 对小规模criteo数据做预处理
说明
1、使用推荐独立仓criteo数据集数据处理脚本对小规模数据做预处理,生成可训练的mindrecord格式数据。
2、小规模数据地址:https://xihe.mindspore.cn/datasets/shenfeng/criteo_60w/tree
3、预处理脚本使用说明:https://gitee.com/mindspore/recommender/tree/master/datasets/criteo_1tb
4、由于数据集非常小,可以修改脚本中的处理进程数为1:SAVE_MINDRECORD_WORKER_NUM = 1

下载网速还是相当快的。
在这里插入图片描述
当然,实际上我们需要的只是小规模数据,因此就不用下载这个15G的。

下载这个144M
在这里插入图片描述

python process_data.py --data_path=./data/ --part_num=1

在这里插入图片描述
在这里插入图片描述
可以看到对应目录下生成了如上文件
在这里插入图片描述

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
开始时间17:19:42 结束时间17:21:58 共136s
中间有一些读写文件的操作
由于数据集非常小,可以修改脚本中的处理进程数为1:SAVE_MINDRECORD_WORKER_NUM = 1
在这里插入图片描述
然后再运行一遍
在这里插入图片描述
在这里插入图片描述

开始时间17:31:06 结束时间17:33:18 共132s
生成的mindrecord文件分为train_0和test_0
在这里插入图片描述

作业2
题目 运行wdl算法模型训练
说明
1、运行推荐独立仓的wdl算法模型,使用作业1预处理好的criteo数据,在单机单GPU卡上做训练。
2、训练说明地址:https://gitee.com/mindspore/recommender/tree/master/rec/models/wide_deep
3、使用其中的单卡训练模式,注意调整数据集路径
python train_and_eval.py --data_path=./data/mindrecord --device_target=“GPU”

python train_and_eval.py --data_path=/code/datasets/criteo_1tb/data/mindrecord --device_target=“GPU”

在这里插入图片描述
最后报了一个错,gpu的memery不够了。
在这里插入图片描述
这种情况,我用openi启智社区的搞下
在这里插入图片描述
在这里插入图片描述
不错,跑起来了。
在这里插入图片描述
GPU占用确实比较多。
在这里插入图片描述
跑了一轮后还是报错了。按照提示,确实有部分mindrecord文件,其内容为空。
在这里插入图片描述
老是有空文件,确实很讨厌,我们改为单线程
在这里插入图片描述
同时,我们使用sqlitespy对数据集作适当修改,这下就真的跑起来了。
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
ok,训练完成。
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

如上是生成的4个log文件,ok了!

Logo

瓜分20万奖金 获得内推名额 丰厚实物奖励 易参与易上手

更多推荐