目录

 Step 1 总体思路分析

        一、数据抽取:获取原始数据集

        二、探索性数据分析:查看数据特征、分析热销商品、分析商品结构

        三、数据预处理,转换数据形式,使之符合Apriori关联规则算法,构建Apriori规则模型:关联规则模型构建、模型结果分析

        四、结论与展望:得出结论,给出销售建议

Step 2 数据探索分析

        1.查看数据特征

        2.分析热销商品 

        3.各类别商品的销售及其占比&&非酒精饮料内部商品的销量及其占比 

Step 3 数据预处理 && 模型构建

        1.数据转换 &&构建关联规则模型

 Step 4 结论与模型应用


 

 Step 1 总体思路分析

一、数据抽取:获取原始数据集

二、探索性数据分析:查看数据特征、分析热销商品、分析商品结构

三、数据预处理,转换数据形式,使之符合Apriori关联规则算法,构建Apriori规则模型:关联规则模型构建、模型结果分析

四、结论与展望:得出结论,给出销售建议

Step 2 数据探索分析

1.查看数据特征

import numpy as np
import pandas as pd

inputfile = 'C:/data/GoodsOrder.csv'   # 输入的数据文件
data = pd.read_csv(inputfile,encoding = 'gbk')  # 读取数据
data .info()  # 查看数据属性

data = data['id']
description = [data.count(),data.min(), data.max()]  # 依次计算总数、最小值、最大值
description = pd.DataFrame(description, index = ['Count','Min', 'Max']).T  # 将结果存入数据框
print('描述性统计结果:\n',np.round(description))  # 输出结果

2.分析热销商品 

思路分析:对商品分类汇总,查看销量排行前10的商品销量,为了可以更直观的分析数据,进行数据可视化,查看销量排行前10的销量占比。

# 销量排行前10商品的销量及其占比
import pandas as pd
inputfile = 'C:/data/GoodsOrder.csv'  # 输入的数据文件
data = pd.read_csv(inputfile,encoding = 'gbk')  # 读取数据
group = data.groupby(['Goods']).count().reset_index()  # 对商品进行分类汇总
sorted=group.sort_values('id',ascending=False)
print('销量排行前10商品的销量:\n', sorted[:10])  # 排序并查看前10位热销商品

# 画条形图展示出销量排行前10商品的销量
import matplotlib.pyplot as plt
x=sorted[:10]['Goods']
y=sorted[:10]['id']
plt.figure(figsize = (8, 4))  # 设置画布大小
plt.barh(x,y)
plt.rcParams['font.sans-serif'] = 'SimHei'
plt.xlabel('销量')  # 设置x轴标题
plt.ylabel('商品类别')  # 设置y轴标题
plt.title('商品的销量TOP10')  # 设置标题
plt.savefig('C:/tmp/top10.png')  # 把图片以.png格式保存
plt.show()  # 展示图片

# 销量排行前10商品的销量占比
data_nums = data.shape[0]
for idnex, row in sorted[:10].iterrows():
    print(row['Goods'],row['id'],row['id']/data_nums)

 

 

小结:通过运行结果可知,全脂牛奶销量最高,为2513件,占比为5.795%;其次是其他蔬菜、面包卷和苏打,占比分别为4.388% 、4.171% 、3.955%,通过结论猜测销量购买前10的商品的客户较多为家庭“煮”妇。

3.各类别商品的销售及其占比&&非酒精饮料内部商品的销量及其占比 

思路分析: 通过商品类别进行总量计算,合并两表,类别求和,再排序,对重叠的归类进行处理,分析归类各类别商品的销量和占比,数据筛选, 数据处理(查看非酒精饮料商品的内部商品结构),数据可视化

import pandas as pd
inputfile1 = 'C:/data/GoodsOrder.csv'
inputfile2 = 'C:/data/GoodsTypes.csv'
data = pd.read_csv(inputfile1,encoding = 'gbk')
types = pd.read_csv(inputfile2,encoding = 'gbk')  # 读入数据

group = data.groupby(['Goods']).count().reset_index()
sort = group.sort_values('id',ascending = False).reset_index()
data_nums = data.shape[0]  # 总量
del sort['index']

sort_links = pd.merge(sort,types)  # 合并两个datafreame 根据type
# 根据类别求和,每个商品类别的总量,并排序
sort_link = sort_links.groupby(['Types']).sum().reset_index()
sort_link = sort_link.sort_values('id',ascending = False).reset_index()
del sort_link['index']  # 删除“index”列

# 求百分比,然后更换列名,最后输出到文件
sort_link['count'] = sort_link.apply(lambda line: line['id']/data_nums,axis=1)
sort_link.rename(columns = {'count':'percent'},inplace = True)
print('各类别商品的销量及其占比:\n',sort_link)
outfile1 = 'C:/tmp/percent.csv'
sort_link.to_csv(outfile1,index = False,header = True,encoding='gbk')  # 保存结果

# 画饼图展示每类商品销量占比
import matplotlib.pyplot as plt
data = sort_link['percent']
labels = sort_link['Types']
plt.figure(figsize=(8, 6))  # 设置画布大小
plt.pie(data,labels=labels,autopct='%1.2f%%')
plt.rcParams['font.sans-serif'] = 'SimHei'
plt.title('每类商品销量占比')  # 设置标题
plt.savefig('C:/tmp/persent.png')  # 把图片以.png格式保存
plt.show()


# 非酒精饮料内部商品的销量及其占比
# 先筛选“非酒精饮料”类型的商品,然后求百分比,然后输出结果到文件。
selected = sort_links.loc[sort_links['Types'] == '非酒精饮料']  # 挑选商品类别为“非酒精饮料”并排序
child_nums = selected['id'].sum()  # 对所有的“非酒精饮料”求和
selected['child_percent'] = selected.apply(lambda line: line['id']/child_nums,axis = 1)  # 求百分比
selected.rename(columns = {'id':'count'},inplace = True)
print('非酒精饮料内部商品的销量及其占比:\n',selected)
outfile2 = 'C:/tmp/child_percent.csv'
sort_link.to_csv(outfile2,index = False,header = True,encoding='gbk')  # 输出结果

# 画饼图展示非酒精饮品内部各商品的销量占比
import matplotlib.pyplot as plt
data = selected['child_percent']
labels = selected['Goods']
plt.figure(figsize = (8,6))  # 设置画布大小
explode = (0.02,0.03,0.04,0.05,0.06,0.07,0.08,0.08,0.3,0.1,0.3)  # 设置每一块分割出的间隙大小
plt.pie(data,explode = explode,labels = labels,autopct = '%1.2f%%',
        pctdistance = 1.1,labeldistance = 1.2)
plt.rcParams['font.sans-serif'] = 'SimHei'
plt.title("非酒精饮料内部各商品的销量占比")  # 设置标题
plt.axis('equal')
plt.savefig('C:/tmp/child_persent.png')  # 保存图形
plt.show()  # 展示图形

 

小结: 通过分析结果可得:非酒精饮料、西点、果蔬3类商品的销量差距不大,占总销量的50%左右。米粮调料、百货、肉类这3类商品的销量差距也不大,占总销量的1/3左右。全脂牛奶的销量占比最大,超过33%。排名占比前三的全脂牛奶、苏打和瓶装水的总销量占比接近70%。通过饼图,我们可以看出日常饮食的商品销售总和接近90%,说明客户倾向于购买此类商品,是销售的主力军。通过分析所得的数据说明大部分顾客都对此有需求,商场需要时常注意这三样货物的库存,进行及时补货,对其余占比少的货物可少量进货,避免商品过期导致浪费。

Step 3 数据预处理 && 模型构建

1.数据转换 &&构建关联规则模型

思路分析:通过数据探索分析知道数据完整无需进行对缺失值填补,转换数据格式,使其能够使用Apriori函数进行关联分析。建模样本数据输入、建模参数输入,生成候选项集,采用Apriori关联规则算法进行分析,设置建模参数最小支持度、最小置信度。以模型参数设置的最小支持度、最小置信度及分析目标作为条件,如果所有的规则都不满足条件,则需要重新调整模型参数,否则输出关联规则结果。从频繁项集中挖掘相关规则,关联规制生成,得出的结果。

# -*- coding: utf-8 -*-

#数据转换
import pandas as pd
inputfile='C:/data/GoodsOrder.csv'
data = pd.read_csv(inputfile,encoding = 'gbk')

# 根据id对“Goods”列合并,并使用“,”将各商品隔开
data['Goods'] = data['Goods'].apply(lambda x:','+x)
data = data.groupby('id').sum().reset_index()

# 对合并的商品列转换数据格式
data['Goods'] = data['Goods'].apply(lambda x :[x[1:]])
data_list = list(data['Goods'])

# 分割商品名为每个元素
data_translation = []
for i in data_list:
    p = i[0].split(',')
    data_translation.append(p)
# print('数据转换结果的前5个元素:\n', data_translation[0:5])

# 构建关联规则模型
# 构造数据
from numpy import *
def loadDataSet():
    return [['a', 'c', 'e'], ['b', 'd'], ['b', 'c'], ['a', 'b', 'c', 'd'], ['a', 'b'], ['b', 'c'], ['a', 'b'],
            ['a', 'b', 'c', 'e'], ['a', 'b', 'c'], ['a', 'c', 'e']]
# l = loadDataSet()
# print(l)

# 将所有元素转换为frozenset型字典,存放到列表中
def createC1(dataSet):
    C1 = []
    for transaction in dataSet:
        # print(dataSet)
        for item in transaction:
            if not [item] in C1:
                # print(C1)
                C1.append([item])
                # print(C1)
    C1.sort()
    # print(C1)
    # 映射为frozenset唯一性的,可使用其构造字典 使用frozenset是为了后面可以将这些值作为字典的键
    return list(map(frozenset, C1)) # frozenset一种不可变的集合,set可变集合

# c = createC1(dataSet=loadDataSet())
# print(c)

# 过滤掉不符合支持度的集合
# 返回 频繁项集列表retList 所有元素的支持度字典
# 从候选K项集到频繁K项集(支持度计算)
def scanD(D, Ck, minSupport):
    ssCnt = {}
    for tid in D:
        # print(len(D))
        for can in Ck:  # 遍历候选项
            # print(len(Ck))
            if can.issubset(tid):  # 判断候选项中是否含数据集的各项 # 判断can是否是tid的《子集》 (这里使用子集的方式来判断两者的关系)
                if not can in ssCnt:  # 统计该值在整个记录中满足子集的次数(以字典的形式记录,frozenset为键)
                    ssCnt[can] = 1  # 不含设为1
                else:
                    ssCnt[can] += 1  # 有则计数加1
    numItems = float(len(D))  # 数据集大小
    retList = []  # L1初始化 重新记录满足条件的数据值(即支持度大于阈值的数据)
    supportData = {}  # 记录候选项中各个数据的支持度
    for key in ssCnt:
        support = ssCnt[key] / numItems  # 计算支持度
        if support >= minSupport:
            retList.insert(0, key)  # 满足条件加入L1中
            supportData[key] = support
    return retList, supportData # 排除不符合支持度元素后的元素 每个元素支持度


def calSupport(D, Ck, min_support):
    dict_sup = {}
    for i in D:
        for j in Ck:
            if j.issubset(i):
                if not j in dict_sup:
                    dict_sup[j] = 1
                else:
                    dict_sup[j] += 1
    sumCount = float(len(D))
    supportData = {}
    relist = []
    for i in dict_sup:
        temp_sup = dict_sup[i] / sumCount
        if temp_sup >= min_support:
            relist.append(i)
            # 此处可设置返回全部的支持度数据(或者频繁项集的支持度数据)
            supportData[i] = temp_sup
    return relist, supportData


# 生成所有可以组合的集合
# 频繁项集列表Lk 项集元素个数k  [frozenset({2, 3}), frozenset({3, 5})] -> [frozenset({2, 3, 5})]
# 改进剪枝算法
def aprioriGen(Lk, k):
    retList = []
    lenLk = len(Lk)
    for i in range(lenLk): #两层循环比较Lk中的每个元素与其它元素
        for j in range(i + 1, lenLk):  # 两两组合遍历
            L1 = list(Lk[i])[:k - 2]  # 将集合转为list后取值
            L2 = list(Lk[j])[:k - 2]
            L1.sort() # 这里说明一下:该函数每次比较两个list的前k-2个元素,如果相同则求并集得到k个元素的集合
            L2.sort()
            if L1 == L2:  # 前k-1项相等,则可相乘,这样可防止重复项出现
                # 进行剪枝(a1为k项集中的一个元素,b为它的所有k-1项子集)
                a = Lk[i] | Lk[j]  # a为frozenset()集合
                a1 = list(a)
                b = []
                # 遍历取出每一个元素,转换为set,依次从a1中剔除该元素,并加入到b中
                for q in range(len(a1)):
                    t = [a1[q]]
                    tt = frozenset(set(a1) - set(t))
                    b.append(tt)
                t = 0
                for w in b:
                    # 当b(即所有k-1项子集)都是Lk(频繁的)的子集,则保留,否则删除。
                    if w in Lk:
                        t += 1
                if t == len(b):
                    retList.append(b[0] | b[1])
                # retList.append(Lk[i] | Lk[j])  # 求并集(网上的)
    return retList

# 封装所有步骤的函数
# 返回 所有满足大于阈值的组合 集合支持度列表
def apriori(dataSet, minSupport=0.2):
    # 前3条语句是对计算查找单个元素中的频繁项集
    C1 = createC1(dataSet)  # 将每个元素转会为frozenset字典
    # print(C1)
    D = list(map(set, dataSet))   # 使用list()转换为列表 # 转换列表记录为字典
    # print(D)
    L1, supportData = calSupport(D, C1, minSupport) # 过滤数据
    L = [L1]  # 加列表框,使得1项集为一个单独元素
    k = 2
    while (len(L[k - 2]) > 0):  # 是否还有候选集 若仍有满足支持度的集合则继续做关联分析
        Ck = aprioriGen(L[k - 2], k) # Ck候选频繁项集
        Lk, supK = scanD(D, Ck, minSupport)  # scan DB to get Lk # Lk频繁项集
        supportData.update(supK)  #更新字典  把supk的键值对添加到supportData里
        L.append(Lk)  # L最后一个值为空集
        k += 1 # 每次新组合的元素都只增加了一个,所以k也+1(k表示元素个数)
    del L[-1]  # 删除最后一个空集
    return L, supportData  # L为频繁项集,为一个列表,1,2,3项集分别为一个元素

# dataSet =loadDataSet()
# L, supportData=apriori(dataSet)
# print(L)
# print(supportData)



# 生成集合的所有子集
def getSubset(fromList, toList):
    for i in range(len(fromList)):
        t = [fromList[i]]
        tt = frozenset(set(fromList) - set(t))
        if not tt in toList:
            toList.append(tt)
            tt = list(tt)
            if len(tt) > 1:
                getSubset(tt, toList)


def calcConf(freqSet, H, supportData, ruleList, minConf=0.7):
    for conseq in H:  # 遍历H中的所有项集并计算它们的可信度值
        conf = supportData[freqSet] / supportData[freqSet - conseq]  # 可信度计算,结合支持度数据
        # 提升度lift计算lift = p(a & b) / p(a)*p(b)
        lift = supportData[freqSet] / (supportData[conseq] * supportData[freqSet - conseq])

        if conf >= minConf and lift > 1:
            print(freqSet - conseq, '-->', conseq, '支持度', round(supportData[freqSet], 6), '置信度:', round(conf, 6),
                  'lift值为:', round(lift, 6))
            ruleList.append((freqSet - conseq, conseq, conf))


# 生成规则
def gen_rule(L, supportData, minConf=0.7):
    bigRuleList = []
    for i in range(1, len(L)):  # 从二项集开始计算
        for freqSet in L[i]:  # freqSet为所有的k项集
            # 求该三项集的所有非空子集,1项集,2项集,直到k-1项集,用H1表示,为list类型,里面为frozenset类型,
            H1 = list(freqSet)
            all_subset = []
            getSubset(H1, all_subset)  # 生成所有的子集
            calcConf(freqSet, all_subset, supportData, bigRuleList, minConf)
    return bigRuleList


if __name__ == '__main__':
    dataSet = data_translation
    L, supportData = apriori(dataSet, minSupport=0.02)
    rule = gen_rule(L, supportData, minConf=0.35)

小结:根据运行结果得知:我们得到了26个关联规则,对其进行解释分析发现:

a). 通过分析支持度和置信度发现:

客户购买'酸奶'和'其他蔬菜'的时候同时会购买全脂牛奶,其置信度最大达到51.29%,因此客户同时购买其他蔬菜、根茎类蔬菜和全脂牛奶的概率较高。

b). 通过分析提升度发现:

购买{'根茎类蔬菜','全脂牛奶'}会促进{'其他蔬菜'}的销售量,

其提升度最大为2.247。因此销售者可以将'根茎类蔬菜','全脂牛奶','其他蔬菜'的商品放置距离拉近,方便顾客拿取,也可有效提高销售业绩。

 Step 4 结论与模型应用

对于模型结果,从购物者角度进行分析:现代生活中,大多数客户为家庭“煮”妇,购买的商品大部分为食品,与上文分析热销商品的小结相对应。

模型结果表明,客户购买其他商品时会同时购买全脂牛奶的概率很大,因此对商场而言,可将全脂牛奶放在客户购买商品的必经之路上,或是放在商场显眼的位置上,方便客户拿取,以此增加全脂牛奶的销量;客户同时购买其他蔬菜、根茎类蔬菜、酸奶油、猪肉、黄油、本地蛋类和多种水果的概率也较高,因此商场可以考虑捆绑销售,或者将以上商品的距离拉近,方便客户拿取。

Logo

开放原子开发者工作坊旨在鼓励更多人参与开源活动,与志同道合的开发者们相互交流开发经验、分享开发心得、获取前沿技术趋势。工作坊有多种形式的开发者活动,如meetup、训练营等,主打技术交流,干货满满,真诚地邀请各位开发者共同参与!

更多推荐