目录

  • 1 课程简介
    • 1.1 教学大纲
    • 1.2 授课计划
    • 1.3 课内实训指导书
  • 2 绪论
    • 2.1 数据挖掘的概念和任务
    • 2.2 十大经典数据挖掘算法
    • 2.3 开放数据获取来源-数据挖掘常见误区
    • 2.4 数据挖掘中的隐私保护
  • 3 认识数据
    • 3.1 数据对象和数据属性
    • 3.2 数据的统计描述
    • 3.3 数据可视化
    • 3.4 数据相似性度量
    • 3.5 数据可视化案例综合应用
  • 4 数据预处理
    • 4.1 数据清洗
    • 4.2 数据集成与数据规约
    • 4.3 数据离散化与概念分层
  • 5 分类与预测
    • 5.1 分类与预测:基本概念
    • 5.2 决策树分类
    • 5.3 朴素贝叶斯分类
    • 5.4 决策树方法的分析比较
    • 5.5 KNN分类算法
    • 5.6 分类与预测算法的性能评价方法
    • 5.7 高级分类算法
  • 6 回归分析
    • 6.1 基本概念
    • 6.2 线性回归编程案例
    • 6.3 逻辑回归
    • 6.4 岭回归
    • 6.5 CART分类回归树
    • 6.6 从线性回归到神经网络
    • 6.7 神经网络训练&神经网络设计原则
    • 6.8 过拟合与正则化
  • 7 关联规则挖掘
    • 7.1 基本概念
    • 7.2 闭项集和极大频繁项
    • 7.3 Apriori算法及其应用
    • 7.4 关联挖掘的常见误区
    • 7.5 FP树及软件实践
    • 7.6 课堂实录 Apriori基础与算法
    • 7.7 课堂实录 Apriori算法分析与案例应用
  • 8 聚类分析
    • 8.1 聚类概述
    • 8.2 聚类的划分方法
    • 8.3 聚类的层次方法
    • 8.4 聚类的密度方法
    • 8.5 孤立点分析
    • 8.6 Kmeans简单实战
    • 8.7 Kmeans常见错误解析
    • 8.8 Kmeans实现数据无监督分类
  • 9 案例开发与综合应用
    • 9.1 scikitlearn安装与配置
    • 9.2 KNN预测男女
    • 9.3 KNN测试自带数据评分对比以及绘图
    • 9.4 KNN用于分类
    • 9.5 KNN用于数据回归预测
    • 9.6 KNN基于历史数据预测未来
  • 10 课程实验
    • 10.1 实验一:数据可视化实践
    • 10.2 实验二:数据规范化实践
    • 10.3 实验三:朴素贝叶斯分类与预测
    • 10.4 实验四:决策树分类及可视化
    • 10.5 实验五:关联规则挖掘
    • 10.6 实验六:Kmeans聚类
    • 10.7 实验七:密度聚类
    • 10.8 实验八:案例综合应用
  • 11 python数据挖掘编程讲解
    • 11.1 函数练习
    • 11.2 函数编程
    • 11.3 可视化编程
    • 11.4 机器学习库的基本编程
实验七:密度聚类

#-*- coding:utf-8 -*-


import math

import numpy as np

import pylab as pl


 #数据集:每三个是一组分别是西瓜的编号,密度,含糖量

data = """

1,0.697,0.46,2,0.774,0.376,3,0.634,0.264,4,0.608,0.318,5,0.556,0.215,

6,0.403,0.237,7,0.481,0.149,8,0.437,0.211,9,0.666,0.091,10,0.243,0.267,

11,0.245,0.057,12,0.343,0.099,13,0.639,0.161,14,0.657,0.198,15,0.36,0.37,

16,0.593,0.042,17,0.719,0.103,18,0.359,0.188,19,0.339,0.241,20,0.282,0.257,

21,0.748,0.232,22,0.714,0.346,23,0.483,0.312,24,0.478,0.437,25,0.525,0.369,

26,0.751,0.489,27,0.532,0.472,28,0.473,0.376,29,0.725,0.445,30,0.446,0.459"""


#数据处理 dataset是30个样本(密度,含糖量)的列表

a = data.split(',')

dataset = [(float(a[i]), float(a[i+1])) for i in range(1, len(a)-1, 3)]


#计算欧几里得距离,a,b分别为两个元组

def dist(a, b):

    return math.sqrt(math.pow(a[0]-b[0], 2)+math.pow(a[1]-b[1], 2))


#算法模型

def DBSCAN(D, e, Minpts):

    #初始化核心对象集合T,聚类个数k,聚类集合C, 未访问集合P,

    T = set(); k = 0; C = []; P = set(D)

    for d in D:

        if len([ i for i in D if dist(d, i) <= e]) >= Minpts:

            T.add(d)

    #开始聚类

    while len(T):

        P_old = P

        o = list(T)[np.random.randint(0, len(T))]

        P = P - set(o)

        Q = []; Q.append(o)

        while len(Q):

            q = Q[0]

            Nq = [i for i in D if dist(q, i) <= e]

            if len(Nq) >= Minpts:

                S = P & set(Nq)

                Q += (list(S))

                P = P - S

            Q.remove(q)

        k += 1

        Ck = list(P_old - P)

        T = T - set(Ck)

        C.append(Ck)

    return C


#画图

def draw(C):

    colValue = ['r', 'y', 'g', 'b', 'c', 'k', 'm']

    for i in range(len(C)):

        coo_X = []    #x坐标列表

        coo_Y = []    #y坐标列表

        for j in range(len(C[i])):

            coo_X.append(C[i][j][0])

            coo_Y.append(C[i][j][1])

        pl.scatter(coo_X, coo_Y, marker='x', color=colValue[i%len(colValue)], label=i)


    pl.legend(loc='upper right')

    pl.show()





C = DBSCAN(dataset, 0.11, 5)

draw(C)

1.初始化核心对象集合T为空,遍历一遍样本集D中所有的样本,计算每个样本点的ε-邻域中包含样本的个数,如果个数大于等于MinPts,则将该样本点加入到核心对象集合中。初始化聚类簇数k = 0, 初始化未访问样本集和为P = D。

2.当T集合中存在样本时执行如下步骤:

2.1记录当前未访问集合P_old = P

2.2从T中随机选一个核心对象o,初始化一个队列Q = [o]

2.3P = P-o(从T中删除o)

2.4当Q中存在样本时执行:

2.4.1取出队列中的首个样本q

2.4.2计算q的ε-邻域中包含样本的个数,如果大于等于MinPts,则令S为q的ε-邻域与P的交集,

Q = Q+S, P = P-S

2.5 k = k + 1,生成聚类簇为Ck = P_old - P

2.6 T = T - Ck

3.划分为C= {C1, C2, ……, Ck}