Python机器学习、深度学习库总结(内含大量示例,建议收藏)

发布于 2022-09-22 15:43:41 2K0 举报 文章被收录于专栏:毛利学Python

前言

目前,随着人工智能的大热,吸引了诸多行业对于人工智能的关注,同时也迎来了一波又一波的人工智能学习的热潮,虽然人工智能背后的原理并不能通过短短一文给予详细介绍,但是像所有学科一样,我们并不需要从头开始”造轮子“,可以通过使用丰富的人工智能框架来快速构建人工智能模型,从而入门人工智能的潮流。人工智能指的是一系列使机器能够像人类一样处理信息的技术;机器学习是利用计算机编程从历史数据中学习,对新数据进行预测的过程;神经网络是基于生物大脑结构和特征的机器学习的计算机模型;深度学习是机器学习的一个子集,它处理大量的非结构化数据,如人类的语音、文本和图像。因此,这些概念在层次上是相互依存的,人工智能是最广泛的术语,而深度学习是最具体的:

机器学习-语言 - 图1

为了大家能够对人工智能常用的 <font style="color:rgb(10, 191, 91);background-color:rgb(243, 245, 249);">Python</font> 库有一个初步的了解,以选择能够满足自己需求的库进行学习,对目前较为常见的人工智能库进行简要全面的介绍。

机器学习-语言 - 图2

python常用机器学习及深度学习库介绍

1、 Numpy

<font style="color:rgb(10, 191, 91);background-color:rgb(243, 245, 249);">NumPy(Numerical Python)</font><font style="color:rgb(10, 191, 91);background-color:rgb(243, 245, 249);">Python</font>的一个扩展程序库,支持大量的维度数组与矩阵运算,此外也针对数组运算提供大量的数学函数库,<font style="color:rgb(10, 191, 91);background-color:rgb(243, 245, 249);">Numpy</font>底层使用<font style="color:rgb(10, 191, 91);background-color:rgb(243, 245, 249);">C语言</font>编写,数组中直接存储对象,而不是存储对象指针,所以其运算效率远高于<font style="color:rgb(10, 191, 91);background-color:rgb(243, 245, 249);">纯Python代</font>码。我们可以在示例中对比下<font style="color:rgb(10, 191, 91);background-color:rgb(243, 245, 249);">纯Python</font>与使用<font style="color:rgb(10, 191, 91);background-color:rgb(243, 245, 249);">Numpy库</font>在计算列表sin值的速度对比:

代码语言:javascript

复制

  1. import numpy as np
  2. import math
  3. import random
  4. import time
  5. start = time.time()
  6. for i in range(10):
  7. list_1 = list(range(1,10000))
  8. for j in range(len(list_1)):
  9. list_1[j] = math.sin(list_1[j])
  10. print("使用纯Python用时{}s".format(time.time()-start))
  11. start = time.time()
  12. for i in range(10):
  13. list_1 = np.array(np.arange(1,10000))
  14. list_1 = np.sin(list_1)
  15. print("使用Numpy用时{}s".format(time.time()-start))
从如下运行结果,可以看到使用 <font style="color:rgb(10, 191, 91);background-color:rgb(243, 245, 249);">Numpy</font> 库的速度快于纯 Python 编写的代码:

代码语言:javascript

复制

  1. 使用纯Python用时0.017444372177124023s
  2. 使用Numpy用时0.001619577407836914s

2、 OpenCV

<font style="color:rgb(10, 191, 91);background-color:rgb(243, 245, 249);">OpenCV</font> 是一个的跨平台计算机视觉库,可以运行在 Linux、Windows 和 Mac OS 操作系统上。它轻量级而且高效——由一系列 C 函数和少量 C++ 类构成,同时也提供了 <font style="color:rgb(10, 191, 91);background-color:rgb(243, 245, 249);">Python</font> 接口,实现了图像处理和计算机视觉方面的很多通用算法。下面代码尝试使用一些简单的滤镜,包括图片的平滑处理、高斯模糊等:

代码语言:javascript

复制

  1. import numpy as np
  2. import cv2 as cv
  3. from matplotlib import pyplot as plt
  4. img = cv.imread('h89817032p0.png')
  5. kernel = np.ones((5,5),np.float32)/25
  6. dst = cv.filter2D(img,-1,kernel)
  7. blur_1 = cv.GaussianBlur(img,(5,5),0)
  8. blur_2 = cv.bilateralFilter(img,9,75,75)
  9. plt.figure(figsize=(10,10))
  10. plt.subplot(221),plt.imshow(img[:,:,::-1]),plt.title('Original')
  11. plt.xticks([]), plt.yticks([])
  12. plt.subplot(222),plt.imshow(dst[:,:,::-1]),plt.title('Averaging')
  13. plt.xticks([]), plt.yticks([])
  14. plt.subplot(223),plt.imshow(blur_1[:,:,::-1]),plt.title('Gaussian')
  15. plt.xticks([]), plt.yticks([])
  16. plt.subplot(224),plt.imshow(blur_1[:,:,::-1]),plt.title('Bilateral')
  17. plt.xticks([]), plt.yticks([])
  18. plt.show()

机器学习-语言 - 图3

可以参考,了解更多 OpenCV 图像处理操作。

3、 Scikit-image

<font style="color:rgb(10, 191, 91);background-color:rgb(243, 245, 249);">scikit-image</font>是基于<font style="color:rgb(10, 191, 91);background-color:rgb(243, 245, 249);">scipy</font>的图像处理库,它将图片作为<font style="color:rgb(10, 191, 91);background-color:rgb(243, 245, 249);">numpy</font>数组进行处理。例如,可以利用<font style="color:rgb(10, 191, 91);background-color:rgb(243, 245, 249);">scikit-image</font>改变图片比例,<font style="color:rgb(10, 191, 91);background-color:rgb(243, 245, 249);">scikit-image</font>提供了<font style="color:rgb(10, 191, 91);background-color:rgb(243, 245, 249);">rescale</font><font style="color:rgb(10, 191, 91);background-color:rgb(243, 245, 249);">resize</font>以及<font style="color:rgb(10, 191, 91);background-color:rgb(243, 245, 249);">downscale_local_mean</font>等函数。

代码语言:javascript

复制

  1. from skimage import data, color, io
  2. from skimage.transform import rescale, resize, downscale_local_mean
  3. image = color.rgb2gray(io.imread('h89817032p0.png'))
  4. image_rescaled = rescale(image, 0.25, anti_aliasing=False)
  5. image_resized = resize(image, (image.shape[0] // 4, image.shape[1] // 4),
  6. anti_aliasing=True)
  7. image_downscaled = downscale_local_mean(image, (4, 3))
  8. plt.figure(figsize=(20,20))
  9. plt.subplot(221),plt.imshow(image, cmap='gray'),plt.title('Original')
  10. plt.xticks([]), plt.yticks([])
  11. plt.subplot(222),plt.imshow(image_rescaled, cmap='gray'),plt.title('Rescaled')
  12. plt.xticks([]), plt.yticks([])
  13. plt.subplot(223),plt.imshow(image_resized, cmap='gray'),plt.title('Resized')
  14. plt.xticks([]), plt.yticks([])
  15. plt.subplot(224),plt.imshow(image_downscaled, cmap='gray'),plt.title('Downscaled')
  16. plt.xticks([]), plt.yticks([])
  17. plt.show()

机器学习-语言 - 图4

4、 Python Imaging Library(PIL)

<font style="color:rgb(10, 191, 91);background-color:rgb(243, 245, 249);">Python Imaging Library(PIL)</font> 已经成为 <font style="color:rgb(10, 191, 91);background-color:rgb(243, 245, 249);">Python</font> 事实上的图像处理标准库了,这是由于,<font style="color:rgb(10, 191, 91);background-color:rgb(243, 245, 249);">PIL</font> 功能非常强大,但API却非常简单易用。但是由于PIL仅支持到 <font style="color:rgb(10, 191, 91);background-color:rgb(243, 245, 249);">Python 2.7</font>,再加上年久失修,于是一群志愿者在 <font style="color:rgb(10, 191, 91);background-color:rgb(243, 245, 249);">PIL</font> 的基础上创建了兼容的版本,名字叫 <font style="color:rgb(10, 191, 91);background-color:rgb(243, 245, 249);">Pillow</font>,支持最新 <font style="color:rgb(10, 191, 91);background-color:rgb(243, 245, 249);">Python 3.x</font>,又加入了许多新特性,因此,我们可以跳过 <font style="color:rgb(10, 191, 91);background-color:rgb(243, 245, 249);">PIL</font>,直接安装使用 <font style="color:rgb(10, 191, 91);background-color:rgb(243, 245, 249);">Pillow</font>

5、 Pillow

使用 <font style="color:rgb(10, 191, 91);background-color:rgb(243, 245, 249);">Pillow</font> 生成字母验证码图片:

代码语言:javascript

复制

  1. from PIL import Image, ImageDraw, ImageFont, ImageFilter
  2. import random
  3. # 随机字母:
  4. def rndChar():
  5. return chr(random.randint(65, 90))
  6. # 随机颜色1:
  7. def rndColor():
  8. return (random.randint(64, 255), random.randint(64, 255), random.randint(64, 255))
  9. # 随机颜色2:
  10. def rndColor2():
  11. return (random.randint(32, 127), random.randint(32, 127), random.randint(32, 127))
  12. # 240 x 60:
  13. width = 60 * 6
  14. height = 60 * 6
  15. image = Image.new('RGB', (width, height), (255, 255, 255))
  16. # 创建Font对象:
  17. font = ImageFont.truetype('/usr/share/fonts/wps-office/simhei.ttf', 60)
  18. # 创建Draw对象:
  19. draw = ImageDraw.Draw(image)
  20. # 填充每个像素:
  21. for x in range(width):
  22. for y in range(height):
  23. draw.point((x, y), fill=rndColor())
  24. # 输出文字:
  25. for t in range(6):
  26. draw.text((60 * t + 10, 150), rndChar(), font=font, fill=rndColor2())
  27. # 模糊:
  28. image = image.filter(ImageFilter.BLUR)
  29. image.save('code.jpg', 'jpeg')

机器学习-语言 - 图5

6、 SimpleCV

<font style="color:rgb(10, 191, 91);background-color:rgb(243, 245, 249);">SimpleCV</font> 是一个用于构建计算机视觉应用程序的开源框架。使用它,可以访问高性能的计算机视觉库,如 OpenCV,而不必首先了解位深度、文件格式、颜色空间、缓冲区管理、特征值或矩阵等术语。但其对于 Python3 的支持很差很差,在 Python3.7 中使用如下代码:

代码语言:javascript

复制

  1. from SimpleCV import Image, Color, Display
  2. # load an image from imgur
  3. img = Image('http://i.imgur.com/lfAeZ4n.png')
  4. # use a keypoint detector to find areas of interest
  5. feats = img.findKeypoints()
  6. # draw the list of keypoints
  7. feats.draw(color=Color.RED)
  8. # show the resulting image.
  9. img.show()
  10. # apply the stuff we found to the image.
  11. output = img.applyLayers()
  12. # save the results.
  13. output.save('juniperfeats.png')
会报如下错误,因此不建议在 <font style="color:rgb(10, 191, 91);background-color:rgb(243, 245, 249);">Python3</font> 中使用:

代码语言:javascript

复制

  1. SyntaxError: Missing parentheses in call to 'print'. Did you mean print('unit test')?

7、 Mahotas

<font style="color:rgb(10, 191, 91);background-color:rgb(243, 245, 249);">Mahotas</font> 是一个快速计算机视觉算法库,其构建在 <font style="color:rgb(10, 191, 91);background-color:rgb(243, 245, 249);">Numpy</font> 之上,目前拥有超过100种图像处理和计算机视觉功能,并在不断增长。使用 <font style="color:rgb(10, 191, 91);background-color:rgb(243, 245, 249);">Mahotas</font> 加载图像,并对像素进行操作:

代码语言:javascript

复制

  1. import numpy as np
  2. import mahotas
  3. import mahotas.demos
  4. from mahotas.thresholding import soft_threshold
  5. from matplotlib import pyplot as plt
  6. from os import path
  7. f = mahotas.demos.load('lena', as_grey=True)
  8. f = f[128:,128:]
  9. plt.gray()
  10. # Show the data:
  11. print("Fraction of zeros in original image: {0}".format(np.mean(f==0)))
  12. plt.imshow(f)
  13. plt.show()

机器学习-语言 - 图6

8、 Ilastik

<font style="color:rgb(10, 191, 91);background-color:rgb(243, 245, 249);">Ilastik</font> 能够给用户提供良好的基于机器学习的生物信息图像分析服务,利用机器学习算法,轻松地分割,分类,跟踪和计数细胞或其他实验数据。大多数操作都是交互式的,并不需要机器学习专业知识。可以参考进行安装使用。

9、 Scikit-learn

<font style="color:rgb(10, 191, 91);background-color:rgb(243, 245, 249);">Scikit-learn</font> 是针对 <font style="color:rgb(10, 191, 91);background-color:rgb(243, 245, 249);">Python</font> 编程语言的免费软件机器学习库。它具有各种分类,回归和聚类算法,包括支持向量机,随机森林,梯度提升,k均值和 DBSCAN 等多种机器学习算法。使用<font style="color:rgb(10, 191, 91);background-color:rgb(243, 245, 249);">Scikit-learn</font>实现<font style="color:rgb(10, 191, 91);background-color:rgb(243, 245, 249);">KMeans</font>算法:

代码语言:javascript

复制

  1. import time
  2. import numpy as np
  3. import matplotlib.pyplot as plt
  4. from sklearn.cluster import MiniBatchKMeans, KMeans
  5. from sklearn.metrics.pairwise import pairwise_distances_argmin
  6. from sklearn.datasets import make_blobs
  7. # Generate sample data
  8. np.random.seed(0)
  9. batch_size = 45
  10. centers = [[1, 1], [-1, -1], [1, -1]]
  11. n_clusters = len(centers)
  12. X, labels_true = make_blobs(n_samples=3000, centers=centers, cluster_std=0.7)
  13. # Compute clustering with Means
  14. k_means = KMeans(init='k-means++', n_clusters=3, n_init=10)
  15. t0 = time.time()
  16. k_means.fit(X)
  17. t_batch = time.time() - t0
  18. # Compute clustering with MiniBatchKMeans
  19. mbk = MiniBatchKMeans(init='k-means++', n_clusters=3, batch_size=batch_size,
  20. n_init=10, max_no_improvement=10, verbose=0)
  21. t0 = time.time()
  22. mbk.fit(X)
  23. t_mini_batch = time.time() - t0
  24. # Plot result
  25. fig = plt.figure(figsize=(8, 3))
  26. fig.subplots_adjust(left=0.02, right=0.98, bottom=0.05, top=0.9)
  27. colors = ['#4EACC5', '#FF9C34', '#4E9A06']
  28. # We want to have the same colors for the same cluster from the
  29. # MiniBatchKMeans and the KMeans algorithm. Let's pair the cluster centers per
  30. # closest one.
  31. k_means_cluster_centers = k_means.cluster_centers_
  32. order = pairwise_distances_argmin(k_means.cluster_centers_,
  33. mbk.cluster_centers_)
  34. mbk_means_cluster_centers = mbk.cluster_centers_[order]
  35. k_means_labels = pairwise_distances_argmin(X, k_means_cluster_centers)
  36. mbk_means_labels = pairwise_distances_argmin(X, mbk_means_cluster_centers)
  37. # KMeans
  38. for k, col in zip(range(n_clusters), colors):
  39. my_members = k_means_labels == k
  40. cluster_center = k_means_cluster_centers[k]
  41. plt.plot(X[my_members, 0], X[my_members, 1], 'w',
  42. markerfacecolor=col, marker='.')
  43. plt.plot(cluster_center[0], cluster_center[1], 'o', markerfacecolor=col,
  44. markeredgecolor='k', markersize=6)
  45. plt.title('KMeans')
  46. plt.xticks(())
  47. plt.yticks(())
  48. plt.show()

机器学习-语言 - 图7

10、 SciPy

<font style="color:rgb(10, 191, 91);background-color:rgb(243, 245, 249);">SciPy</font> 库提供了许多用户友好和高效的数值计算,如数值积分、插值、优化、线性代数等。<font style="color:rgb(10, 191, 91);background-color:rgb(243, 245, 249);">SciPy</font> 库定义了许多数学物理的特殊函数,包括椭圆函数、贝塞尔函数、伽马函数、贝塔函数、超几何函数、抛物线圆柱函数等等。

代码语言:javascript

复制

  1. from scipy import special
  2. import matplotlib.pyplot as plt
  3. import numpy as np
  4. def drumhead_height(n, k, distance, angle, t):
  5. kth_zero = special.jn_zeros(n, k)[-1]
  6. return np.cos(t) * np.cos(n*angle) * special.jn(n, distance*kth_zero)
  7. theta = np.r_[0:2*np.pi:50j]
  8. radius = np.r_[0:1:50j]
  9. x = np.array([r * np.cos(theta) for r in radius])
  10. y = np.array([r * np.sin(theta) for r in radius])
  11. z = np.array([drumhead_height(1, 1, r, theta, 0.5) for r in radius])
  12. fig = plt.figure()
  13. ax = fig.add_axes(rect=(0, 0.05, 0.95, 0.95), projection='3d')
  14. ax.plot_surface(x, y, z, rstride=1, cstride=1, cmap='RdBu_r', vmin=-0.5, vmax=0.5)
  15. ax.set_xlabel('X')
  16. ax.set_ylabel('Y')
  17. ax.set_xticks(np.arange(-1, 1.1, 0.5))
  18. ax.set_yticks(np.arange(-1, 1.1, 0.5))
  19. ax.set_zlabel('Z')
  20. plt.show()

机器学习-语言 - 图8

11、 NLTK

<font style="color:rgb(10, 191, 91);background-color:rgb(243, 245, 249);">NLTK</font> 是构建Python程序以处理自然语言的库。它为50多个语料库和词汇资源(如 <font style="color:rgb(10, 191, 91);background-color:rgb(243, 245, 249);">WordNet</font> )提供了易于使用的接口,以及一套用于分类、分词、词干、标记、解析和语义推理的文本处理库、工业级自然语言处理<font style="color:rgb(10, 191, 91);background-color:rgb(243, 245, 249);">(Natural Language Processing, NLP)</font> 库的包装器。NLTK被称为 <font style="color:rgb(10, 191, 91);background-color:rgb(243, 245, 249);">“a wonderful tool for teaching, and working in, computational linguistics using Python”</font>

代码语言:javascript

复制

  1. import nltk
  2. from nltk.corpus import treebank
  3. # 首次使用需要下载
  4. nltk.download('punkt')
  5. nltk.download('averaged_perceptron_tagger')
  6. nltk.download('maxent_ne_chunker')
  7. nltk.download('words')
  8. nltk.download('treebank')
  9. sentence = """At eight o'clock on Thursday morning Arthur didn't feel very good."""
  10. # Tokenize
  11. tokens = nltk.word_tokenize(sentence)
  12. tagged = nltk.pos_tag(tokens)
  13. # Identify named entities
  14. entities = nltk.chunk.ne_chunk(tagged)
  15. # Display a parse tree
  16. t = treebank.parsed_sents('wsj_0001.mrg')[0]
  17. t.draw()

机器学习-语言 - 图9

12、 spaCy

<font style="color:rgb(10, 191, 91);background-color:rgb(243, 245, 249);">spaCy</font> 是一个免费的开源库,用于 <font style="color:rgb(10, 191, 91);background-color:rgb(243, 245, 249);">Python</font> 中的高级 NLP。它可以用于构建处理大量文本的应用程序;也可以用来构建信息提取或自然语言理解系统,或者对文本进行预处理以进行深度学习。

代码语言:javascript

复制

  1. import spacy
  2. texts = [
  3. "Net income was $9.4 million compared to the prior year of $2.7 million.",
  4. "Revenue exceeded twelve billion dollars, with a loss of $1b.",
  5. ]
  6. nlp = spacy.load("en_core_web_sm")
  7. for doc in nlp.pipe(texts, disable=["tok2vec", "tagger", "parser", "attribute_ruler", "lemmatizer"]):
  8. # Do something with the doc here
  9. print([(ent.text, ent.label_) for ent in doc.ents])

<font style="color:rgb(10, 191, 91);background-color:rgb(243, 245, 249);">nlp.pipe</font> 生成 Doc 对象,因此我们可以对它们进行迭代并访问命名实体预测:

代码语言:javascript

复制

  1. [('$9.4 million', 'MONEY'), ('the prior year', 'DATE'), ('$2.7 million', 'MONEY')]
  2. [('twelve billion dollars', 'MONEY'), ('1b', 'MONEY')]

13、 LibROSA

<font style="color:rgb(10, 191, 91);background-color:rgb(243, 245, 249);">librosa</font> 是一个用于音乐和音频分析的 Python 库,它提供了创建音乐信息检索系统所必需的功能和函数。

代码语言:javascript

复制

  1. # Beat tracking example
  2. import librosa
  3. # 1. Get the file path to an included audio example
  4. filename = librosa.example('nutcracker')
  5. # 2. Load the audio as a waveform `y`
  6. # Store the sampling rate as `sr`
  7. y, sr = librosa.load(filename)
  8. # 3. Run the default beat tracker
  9. tempo, beat_frames = librosa.beat.beat_track(y=y, sr=sr)
  10. print('Estimated tempo: {:.2f} beats per minute'.format(tempo))
  11. # 4. Convert the frame indices of beat events into timestamps
  12. beat_times = librosa.frames_to_time(beat_frames, sr=sr)

14、 Pandas

<font style="color:rgb(10, 191, 91);background-color:rgb(243, 245, 249);">Pandas</font> 是一个快速、强大、灵活且易于使用的开源数据分析和操作工具, <font style="color:rgb(10, 191, 91);background-color:rgb(243, 245, 249);">Pandas</font> 可以从各种文件格式比如 CSV、JSON、SQL、Microsoft Excel 导入数据,可以对各种数据进行运算操作,比如归并、再成形、选择,还有数据清洗和数据加工特征。<font style="color:rgb(10, 191, 91);background-color:rgb(243, 245, 249);">Pandas</font> 广泛应用在学术、金融、统计学等各个数据分析领域。

代码语言:javascript

复制

  1. import matplotlib.pyplot as plt
  2. import pandas as pd
  3. import numpy as np
  4. ts = pd.Series(np.random.randn(1000), index=pd.date_range("1/1/2000", periods=1000))
  5. ts = ts.cumsum()
  6. df = pd.DataFrame(np.random.randn(1000, 4), index=ts.index, columns=list("ABCD"))
  7. df = df.cumsum()
  8. df.plot()
  9. plt.show()

机器学习-语言 - 图10

15、 Matplotlib

<font style="color:rgb(10, 191, 91);background-color:rgb(243, 245, 249);">Matplotlib</font> 是Python的绘图库,它提供了一整套和 <font style="color:rgb(10, 191, 91);background-color:rgb(243, 245, 249);">matlab</font> 相似的命令 API,可以生成出版质量级别的精美图形,<font style="color:rgb(10, 191, 91);background-color:rgb(243, 245, 249);">Matplotlib</font> 使绘图变得非常简单,在易用性和性能间取得了优异的平衡。使用 <font style="color:rgb(10, 191, 91);background-color:rgb(243, 245, 249);">Matplotlib</font> 绘制多曲线图:

代码语言:javascript

复制

  1. # plot_multi_curve.py
  2. import numpy as np
  3. import matplotlib.pyplot as plt
  4. x = np.linspace(0.1, 2 * np.pi, 100)
  5. y_1 = x
  6. y_2 = np.square(x)
  7. y_3 = np.log(x)
  8. y_4 = np.sin(x)
  9. plt.plot(x,y_1)
  10. plt.plot(x,y_2)
  11. plt.plot(x,y_3)
  12. plt.plot(x,y_4)
  13. plt.show()

机器学习-语言 - 图11

有关更多<font style="color:rgb(10, 191, 91);background-color:rgb(243, 245, 249);">Matplotlib</font>绘图的介绍可以参考此前博文———。

16、 Seaborn

<font style="color:rgb(10, 191, 91);background-color:rgb(243, 245, 249);">Seaborn</font> 是在 <font style="color:rgb(10, 191, 91);background-color:rgb(243, 245, 249);">Matplotlib</font> 的基础上进行了更高级的API封装的Python数据可视化库,从而使得作图更加容易,应该把 <font style="color:rgb(10, 191, 91);background-color:rgb(243, 245, 249);">Seaborn</font> 视为 <font style="color:rgb(10, 191, 91);background-color:rgb(243, 245, 249);">Matplotlib</font> 的补充,而不是替代物。

代码语言:javascript

复制

  1. import seaborn as sns
  2. import matplotlib.pyplot as plt
  3. sns.set_theme(style="ticks")
  4. df = sns.load_dataset("penguins")
  5. sns.pairplot(df, hue="species")
  6. plt.show()

机器学习-语言 - 图12

17、 Orange

<font style="color:rgb(10, 191, 91);background-color:rgb(243, 245, 249);">Orange</font> 是一个开源的数据挖掘和机器学习软件,提供了一系列的数据探索、可视化、预处理以及建模组件。<font style="color:rgb(10, 191, 91);background-color:rgb(243, 245, 249);">Orange</font> 拥有漂亮直观的交互式用户界面,非常适合新手进行探索性数据分析和可视化展示;同时高级用户也可以将其作为 <font style="color:rgb(10, 191, 91);background-color:rgb(243, 245, 249);">Python</font> 的一个编程模块进行数据操作和组件开发。使用 <font style="color:rgb(10, 191, 91);background-color:rgb(243, 245, 249);">pip</font> 即可安装 <font style="color:rgb(10, 191, 91);background-color:rgb(243, 245, 249);">Orange</font>,好评~

代码语言:javascript

复制

  1. $ pip install orange3
安装完成后,在命令行输入 <font style="color:rgb(10, 191, 91);background-color:rgb(243, 245, 249);">orange-canvas</font> 命令即可启动 <font style="color:rgb(10, 191, 91);background-color:rgb(243, 245, 249);">Orange</font> 图形界面:

代码语言:javascript

复制

  1. $ orange-canvas
启动完成后,即可看到 <font style="color:rgb(10, 191, 91);background-color:rgb(243, 245, 249);">Orange</font> 图形界面,进行各种操作。

机器学习-语言 - 图13

18、 PyBrain

<font style="color:rgb(10, 191, 91);background-color:rgb(243, 245, 249);">PyBrain</font><font style="color:rgb(10, 191, 91);background-color:rgb(243, 245, 249);">Python</font> 的模块化机器学习库。它的目标是为机器学习任务和各种预定义的环境提供灵活、易于使用且强大的算法来测试和比较算法。<font style="color:rgb(10, 191, 91);background-color:rgb(243, 245, 249);">PyBrain</font><font style="color:rgb(10, 191, 91);background-color:rgb(243, 245, 249);">Python-Based Reinforcement Learning, Artificial Intelligence and Neural Network Library</font> 的缩写。我们将利用一个简单的例子来展示 <font style="color:rgb(10, 191, 91);background-color:rgb(243, 245, 249);">PyBrain</font> 的用法,构建一个多层感知器 (Multi Layer Perceptron, MLP)。首先,我们创建一个新的前馈网络对象:

代码语言:javascript

复制

  1. from pybrain.structure import FeedForwardNetwork
  2. n = FeedForwardNetwork()
接下来,构建输入、隐藏和输出层:

代码语言:javascript

复制

  1. from pybrain.structure import LinearLayer, SigmoidLayer
  2. inLayer = LinearLayer(2)
  3. hiddenLayer = SigmoidLayer(3)
  4. outLayer = LinearLayer(1)
为了使用所构建的层,必须将它们添加到网络中:

代码语言:javascript

复制

  1. n.addInputModule(inLayer)
  2. n.addModule(hiddenLayer)
  3. n.addOutputModule(outLayer)
可以添加多个输入和输出模块。为了向前计算和反向误差传播,网络必须知道哪些层是输入、哪些层是输出。这就需要明确确定它们应该如何连接。为此,我们使用最常见的连接类型,全连接层,由 FullConnection 类实现:

代码语言:javascript

复制

  1. from pybrain.structure import FullConnection
  2. in_to_hidden = FullConnection(inLayer, hiddenLayer)
  3. hidden_to_out = FullConnection(hiddenLayer, outLayer)
与层一样,我们必须明确地将它们添加到网络中:

代码语言:javascript

复制

  1. n.addConnection(in_to_hidden)
  2. n.addConnection(hidden_to_out)
所有元素现在都已准备就位,最后,我们需要调用.sortModules()方法使MLP可用:

代码语言:javascript

复制

  1. n.sortModules()
这个调用会执行一些内部初始化,这在使用网络之前是必要的。

19、 Milk

<font style="color:rgb(10, 191, 91);background-color:rgb(243, 245, 249);">MILK(MACHINE LEARNING TOOLKIT)</font> 是 Python 语言的机器学习工具包。它主要是包含许多分类器比如 SVMS、K-NN、随机森林以及决策树中使用监督分类法,它还可执行特征选择,可以形成不同的例如无监督学习、密切关系传播和由 MILK 支持的 K-means 聚类等分类系统。使用 <font style="color:rgb(10, 191, 91);background-color:rgb(243, 245, 249);">MILK</font> 训练一个分类器:

代码语言:javascript

复制

  1. import numpy as np
  2. import milk
  3. features = np.random.rand(100,10)
  4. labels = np.zeros(100)
  5. features[50:] += .5
  6. labels[50:] = 1
  7. learner = milk.defaultclassifier()
  8. model = learner.train(features, labels)
  9. # Now you can use the model on new examples:
  10. example = np.random.rand(10)
  11. print(model.apply(example))
  12. example2 = np.random.rand(10)
  13. example2 += .5
  14. print(model.apply(example2))

20、 TensorFlow

<font style="color:rgb(10, 191, 91);background-color:rgb(243, 245, 249);">TensorFlow</font> 是一个端到端开源机器学习平台。它拥有一个全面而灵活的生态系统,一般可以将其分为 TensorFlow1.x 和 TensorFlow2.x,TensorFlow1.x 与 TensorFlow2.x 的主要区别在于 TF1.x 使用静态图而 TF2.x 使用Eager Mode动态图。这里主要使用TensorFlow2.x作为示例,展示在 TensorFlow2.x 中构建卷积神经网络 (Convolutional Neural Network, CNN)。

代码语言:javascript

复制

  1. import tensorflow as tf
  2. from tensorflow.keras import datasets, layers, models
  3. # 数据加载
  4. (train_images, train_labels), (test_images, test_labels) = datasets.cifar10.load_data()
  5. # 数据预处理
  6. train_images, test_images = train_images / 255.0, test_images / 255.0
  7. # 模型构建
  8. model = models.Sequential()
  9. model.add(layers.Conv2D(32, (3, 3), activation='relu', input_shape=(32, 32, 3)))
  10. model.add(layers.MaxPooling2D((2, 2)))
  11. model.add(layers.Conv2D(64, (3, 3), activation='relu'))
  12. model.add(layers.MaxPooling2D((2, 2)))
  13. model.add(layers.Conv2D(64, (3, 3), activation='relu'))
  14. model.add(layers.Flatten())
  15. model.add(layers.Dense(64, activation='relu'))
  16. model.add(layers.Dense(10))
  17. # 模型编译与训练
  18. model.compile(optimizer='adam',
  19. loss=tf.keras.losses.SparseCategoricalCrossentropy(from_logits=True),
  20. metrics=['accuracy'])
  21. history = model.fit(train_images, train_labels, epochs=10,
  22. validation_data=(test_images, test_labels))
想要了解更多Tensorflow2.x的示例,可以参考专栏 .

21、 PyTorch

<font style="color:rgb(10, 191, 91);background-color:rgb(243, 245, 249);">PyTorch</font> 的前身是 Torch,其底层和 Torch 框架一样,但是使用 Python 重新写了很多内容,不仅更加灵活,支持动态图,而且提供了 Python 接口。

代码语言:javascript

复制

  1. # 导入库
  2. import torch
  3. from torch import nn
  4. from torch.utils.data import DataLoader
  5. from torchvision import datasets
  6. from torchvision.transforms import ToTensor, Lambda, Compose
  7. import matplotlib.pyplot as plt
  8. # 模型构建
  9. device = "cuda" if torch.cuda.is_available() else "cpu"
  10. print("Using {} device".format(device))
  11. # Define model
  12. class NeuralNetwork(nn.Module):
  13. def __init__(self):
  14. super(NeuralNetwork, self).__init__()
  15. self.flatten = nn.Flatten()
  16. self.linear_relu_stack = nn.Sequential(
  17. nn.Linear(28*28, 512),
  18. nn.ReLU(),
  19. nn.Linear(512, 512),
  20. nn.ReLU(),
  21. nn.Linear(512, 10),
  22. nn.ReLU()
  23. )
  24. def forward(self, x):
  25. x = self.flatten(x)
  26. logits = self.linear_relu_stack(x)
  27. return logits
  28. model = NeuralNetwork().to(device)
  29. # 损失函数和优化器
  30. loss_fn = nn.CrossEntropyLoss()
  31. optimizer = torch.optim.SGD(model.parameters(), lr=1e-3)
  32. # 模型训练
  33. def train(dataloader, model, loss_fn, optimizer):
  34. size = len(dataloader.dataset)
  35. for batch, (X, y) in enumerate(dataloader):
  36. X, y = X.to(device), y.to(device)
  37. # Compute prediction error
  38. pred = model(X)
  39. loss = loss_fn(pred, y)
  40. # Backpropagation
  41. optimizer.zero_grad()
  42. loss.backward()
  43. optimizer.step()
  44. if batch % 100 == 0:
  45. loss, current = loss.item(), batch * len(X)
  46. print(f"loss: {<!-- -->loss:&gt;7f} [{<!-- -->current:&gt;5d}/{<!-- -->size:&gt;5d}]")

22、 Theano

<font style="color:rgb(10, 191, 91);background-color:rgb(243, 245, 249);">Theano</font> 是一个 Python 库,它允许定义、优化和有效地计算涉及多维数组的数学表达式,建在 NumPy 之上。在 <font style="color:rgb(10, 191, 91);background-color:rgb(243, 245, 249);">Theano</font> 中实现计算雅可比矩阵:

代码语言:javascript

复制

  1. import theano
  2. import theano.tensor as T
  3. x = T.dvector('x')
  4. y = x ** 2
  5. J, updates = theano.scan(lambda i, y,x : T.grad(y[i], x), sequences=T.arange(y.shape[0]), non_sequences=[y,x])
  6. f = theano.function([x], J, updates=updates)
  7. f([4, 4])

23、 Keras

<font style="color:rgb(10, 191, 91);background-color:rgb(243, 245, 249);">Keras</font> 是一个用 Python 编写的高级神经网络 API,它能够以 TensorFlow, CNTK, 或者 Theano 作为后端运行。Keras 的开发重点是支持快速的实验,能够以最小的时延把想法转换为实验结果。

代码语言:javascript

复制

  1. from keras.models import Sequential
  2. from keras.layers import Dense
  3. # 模型构建
  4. model = Sequential()
  5. model.add(Dense(units=64, activation='relu', input_dim=100))
  6. model.add(Dense(units=10, activation='softmax'))
  7. # 模型编译与训练
  8. model.compile(loss='categorical_crossentropy',
  9. optimizer='sgd',
  10. metrics=['accuracy'])
  11. model.fit(x_train, y_train, epochs=5, batch_size=32)

24、 Caffe

在 官方网站上,这样说道:<font style="color:rgb(10, 191, 91);background-color:rgb(243, 245, 249);">Caffe2</font> 现在是 <font style="color:rgb(10, 191, 91);background-color:rgb(243, 245, 249);">PyTorch</font> 的一部分。虽然这些 api 将继续工作,但鼓励使用 PyTorch api。

25、 MXNet

<font style="color:rgb(10, 191, 91);background-color:rgb(243, 245, 249);">MXNet</font> 是一款设计为效率和灵活性的深度学习框架。它允许混合符号编程和命令式编程,从而最大限度提高效率和生产力。使用 <font style="color:rgb(10, 191, 91);background-color:rgb(243, 245, 249);">MXNet</font> 构建手写数字识别模型:

代码语言:javascript

复制

  1. import mxnet as mx
  2. from mxnet import gluon
  3. from mxnet.gluon import nn
  4. from mxnet import autograd as ag
  5. import mxnet.ndarray as F
  6. # 数据加载
  7. mnist = mx.test_utils.get_mnist()
  8. batch_size = 100
  9. train_data = mx.io.NDArrayIter(mnist['train_data'], mnist['train_label'], batch_size, shuffle=True)
  10. val_data = mx.io.NDArrayIter(mnist['test_data'], mnist['test_label'], batch_size)
  11. # CNN模型
  12. class Net(gluon.Block):
  13. def __init__(self, **kwargs):
  14. super(Net, self).__init__(**kwargs)
  15. self.conv1 = nn.Conv2D(20, kernel_size=(5,5))
  16. self.pool1 = nn.MaxPool2D(pool_size=(2,2), strides = (2,2))
  17. self.conv2 = nn.Conv2D(50, kernel_size=(5,5))
  18. self.pool2 = nn.MaxPool2D(pool_size=(2,2), strides = (2,2))
  19. self.fc1 = nn.Dense(500)
  20. self.fc2 = nn.Dense(10)
  21. def forward(self, x):
  22. x = self.pool1(F.tanh(self.conv1(x)))
  23. x = self.pool2(F.tanh(self.conv2(x)))
  24. # 0 means copy over size from corresponding dimension.
  25. # -1 means infer size from the rest of dimensions.
  26. x = x.reshape((0, -1))
  27. x = F.tanh(self.fc1(x))
  28. x = F.tanh(self.fc2(x))
  29. return x
  30. net = Net()
  31. # 初始化与优化器定义
  32. # set the context on GPU is available otherwise CPU
  33. ctx = [mx.gpu() if mx.test_utils.list_gpus() else mx.cpu()]
  34. net.initialize(mx.init.Xavier(magnitude=2.24), ctx=ctx)
  35. trainer = gluon.Trainer(net.collect_params(), 'sgd', {<!-- -->'learning_rate': 0.03})
  36. # 模型训练
  37. # Use Accuracy as the evaluation metric.
  38. metric = mx.metric.Accuracy()
  39. softmax_cross_entropy_loss = gluon.loss.SoftmaxCrossEntropyLoss()
  40. for i in range(epoch):
  41. # Reset the train data iterator.
  42. train_data.reset()
  43. for batch in train_data:
  44. data = gluon.utils.split_and_load(batch.data[0], ctx_list=ctx, batch_axis=0)
  45. label = gluon.utils.split_and_load(batch.label[0], ctx_list=ctx, batch_axis=0)
  46. outputs = []
  47. # Inside training scope
  48. with ag.record():
  49. for x, y in zip(data, label):
  50. z = net(x)
  51. # Computes softmax cross entropy loss.
  52. loss = softmax_cross_entropy_loss(z, y)
  53. # Backpropogate the error for one iteration.
  54. loss.backward()
  55. outputs.append(z)
  56. metric.update(label, outputs)
  57. trainer.step(batch.data[0].shape[0])
  58. # Gets the evaluation result.
  59. name, acc = metric.get()
  60. # Reset evaluation result to initial state.
  61. metric.reset()
  62. print('training acc at epoch %d: %s=%f'%(i, name, acc))

26、 PaddlePaddle

飞桨 <font style="color:rgb(10, 191, 91);background-color:rgb(243, 245, 249);">(PaddlePaddle)</font> 以百度多年的深度学习技术研究和业务应用为基础,集深度学习核心训练和推理框架、基础模型库、端到端开发套件、丰富的工具组件于一体。是中国首个自主研发、功能完备、开源开放的产业级深度学习平台。使用 <font style="color:rgb(10, 191, 91);background-color:rgb(243, 245, 249);">PaddlePaddle</font> 实现 <font style="color:rgb(10, 191, 91);background-color:rgb(243, 245, 249);">LeNtet5</font>

代码语言:javascript

复制

  1. # 导入需要的包
  2. import paddle
  3. import numpy as np
  4. from paddle.nn import Conv2D, MaxPool2D, Linear
  5. ## 组网
  6. import paddle.nn.functional as F
  7. # 定义 LeNet 网络结构
  8. class LeNet(paddle.nn.Layer):
  9. def __init__(self, num_classes=1):
  10. super(LeNet, self).__init__()
  11. # 创建卷积和池化层
  12. # 创建第1个卷积层
  13. self.conv1 = Conv2D(in_channels=1, out_channels=6, kernel_size=5)
  14. self.max_pool1 = MaxPool2D(kernel_size=2, stride=2)
  15. # 尺寸的逻辑:池化层未改变通道数;当前通道数为6
  16. # 创建第2个卷积层
  17. self.conv2 = Conv2D(in_channels=6, out_channels=16, kernel_size=5)
  18. self.max_pool2 = MaxPool2D(kernel_size=2, stride=2)
  19. # 创建第3个卷积层
  20. self.conv3 = Conv2D(in_channels=16, out_channels=120, kernel_size=4)
  21. # 尺寸的逻辑:输入层将数据拉平[B,C,H,W] -&gt; [B,C*H*W]
  22. # 输入size是[28,28],经过三次卷积和两次池化之后,C*H*W等于120
  23. self.fc1 = Linear(in_features=120, out_features=64)
  24. # 创建全连接层,第一个全连接层的输出神经元个数为64 第二个全连接层输出神经元个数为分类标签的类别数
  25. self.fc2 = Linear(in_features=64, out_features=num_classes)
  26. # 网络的前向计算过程
  27. def forward(self, x):
  28. x = self.conv1(x)
  29. # 每个卷积层使用Sigmoid激活函数,后面跟着一个2x2的池化
  30. x = F.sigmoid(x)
  31. x = self.max_pool1(x)
  32. x = F.sigmoid(x)
  33. x = self.conv2(x)
  34. x = self.max_pool2(x)
  35. x = self.conv3(x)
  36. # 尺寸的逻辑:输入层将数据拉平[B,C,H,W] -&gt; [B,C*H*W]
  37. x = paddle.reshape(x, [x.shape[0], -1])
  38. x = self.fc1(x)
  39. x = F.sigmoid(x)
  40. x = self.fc2(x)
  41. return x

27、 CNTK

<font style="color:rgb(10, 191, 91);background-color:rgb(243, 245, 249);">CNTK(Cognitive Toolkit)</font> 是一个深度学习工具包,通过有向图将神经网络描述为一系列计算步骤。在这个有向图中,叶节点表示输入值或网络参数,而其他节点表示对其输入的矩阵运算。<font style="color:rgb(10, 191, 91);background-color:rgb(243, 245, 249);">CNTK</font> 可以轻松地实现和组合流行的模型类型,如 <font style="color:rgb(10, 191, 91);background-color:rgb(243, 245, 249);">CNN</font> 等。<font style="color:rgb(10, 191, 91);background-color:rgb(243, 245, 249);">CNTK</font> 用网络描述语言 <font style="color:rgb(10, 191, 91);background-color:rgb(243, 245, 249);">(network description language, NDL)</font> 描述一个神经网络。简单的说,要描述输入的 feature,输入的 label,一些参数,参数和输入之间的计算关系,以及目标节点是什么。

代码语言:javascript

复制

  1. NDLNetworkBuilder=[
  2. run=ndlLR
  3. ndlLR=[
  4. # sample and label dimensions
  5. SDim=$dimension$
  6. LDim=1
  7. features=Input(SDim, 1)
  8. labels=Input(LDim, 1)
  9. # parameters to learn
  10. B0 = Parameter(4)
  11. W0 = Parameter(4, SDim)
  12. B = Parameter(LDim)
  13. W = Parameter(LDim, 4)
  14. # operations
  15. t0 = Times(W0, features)
  16. z0 = Plus(t0, B0)
  17. s0 = Sigmoid(z0)
  18. t = Times(W, s0)
  19. z = Plus(t, B)
  20. s = Sigmoid(z)
  21. LR = Logistic(labels, s)
  22. EP = SquareError(labels, s)
  23. # root nodes
  24. FeatureNodes=(features)
  25. LabelNodes=(labels)
  26. CriteriaNodes=(LR)
  27. EvalNodes=(EP)
  28. OutputNodes=(s,t,z,s0,W0)
  29. ]
  30. ]

总结与分类

python 常用机器学习及深度学习库总结

库名 官方网站 简介
NumPy http://www.numpy.org/ 提供对大型多维阵列的支持,NumPy是计算机视觉中的一个关键库,因为图像可以表示为多维数组,将图像表示为NumPy数组有许多优点
OpenCV https://opencv.org/ 开源的计算机视觉库
Scikit-image https:// scikit-image.org/ 图像处理算法的集合,由scikit-image操作的图像只能是NumPy数组
Python Imaging Library(PIL) http://www.pythonware.com/products/pil/ 图像处理库,提供强大的图像处理和图形功能
Pillow https://pillow.readthedocs.io/ PIL的一个分支
SimpleCV http://simplecv.org/ 计算机视觉框架,提供了处理图像处理的关键功能
Mahotas https://mahotas.readthedocs.io/ 提供了用于图像处理和计算机视觉的一组函数,它最初是为生物图像信息学而设计的;但是,现在它在其他领域也发挥了重要作用,它完全基于numpy数组作为其数据类型
Ilastik http://ilastik.org/ 用户友好且简单的交互式图像分割、分类和分析工具
Scikit-learn http://scikit-learn.org/ 机器学习库,具有各种分类、回归和聚类算法
SciPy https://www.scipy.org/ 科学和技术计算库
NLTK https://www.nltk.org/ 处理自然语言数据的库和程序
spaCy https://spacy.io/ 开源软件库,用于Python中的高级自然语言处理
LibROSA https://librosa.github.io/librosa/ 用于音乐和音频处理的库
Pandas https://pandas.pydata.org/ 构建在NumPy之上的库,提供高级数据计算工具和易于使用的数据结构
Matplotlib https://matplotlib.org 绘图库,它提供了一整套和 matlab 相似的命令 API,可以生成所需的出版质量级别的图形
Seaborn https://seaborn.pydata.org/ 是建立在Matplotlib之上的绘图库
Orange https://orange.biolab.si/ 面向新手和专家的开源机器学习和数据可视化工具包
PyBrain http://pybrain.org/ 机器学习库,为机器学习提供易于使用的最新算法
Milk http://luispedro.org/software/milk/ 机器学习工具箱,主要用于监督学习中的多分类问题
TensorFlow https://www.tensorflow.org/ 开源的机器学习和深度学习库
PyTorch https://pytorch.org/ 开源的机器学习和深度学习库
Theano http://deeplearning.net/software/theano/ 用于快速数学表达式、求值和计算的库,已编译为可在CPU和GPU架构上运行
Keras https://keras.io/ 高级深度学习库,可以在 TensorFlow、CNTK、Theano 或 Microsoft Cognitive Toolkit 之上运行
Caffe2 https://caffe2.ai/ Caffe2 是一个兼具表现力、速度和模块性的深度学习框架,是 Caffe 的实验性重构,能以更灵活的方式组织计算
MXNet https://mxnet.apache.org/ 设计为效率和灵活性的深度学习框架,允许混合符号编程和命令式编程
PaddlePaddle https://www.paddlepaddle.org.cn 以百度多年的深度学习技术研究和业务应用为基础,集深度学习核心训练和推理框架、基础模型库、端到端开发套件、丰富的工具组件于一体
CNTK https://cntk.ai/ 深度学习工具包,通过有向图将神经网络描述为一系列计算步骤。在这个有向图中,叶节点表示输入值或网络参数,而其他节点表示对其输入的矩阵运算
可以根据其主要用途将这些库进行分类:
类别
图像处理 NumPy、OpenCV、scikit image、PIL、Pillow、SimpleCV、Mahotas、ilastik
文本处理 NLTK、spaCy、NumPy、scikit learn、PyTorch
音频处理 LibROSA
机器学习 pandas, scikit-learn, Orange, PyBrain, Milk
数据查看 Matplotlib、Seaborn、scikit-learn、Orange
深度学习 TensorFlow、Pytorch、Theano、Keras、Caffe2、MXNet、PaddlePaddle、CNTK
科学计算 SciPy

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。