测试数学表达式
结果:很遗憾,我的博客暂时不支持。以后再说吧,或者 不搞了,不太重要。
$ x = \frac{x - \mu}{\sigma}$
123
$x = \frac{x - \mu}{\sigma}$
$ x = \frac{x - \mu}{\sigma}$
123
$x = \frac{x - \mu}{\sigma}$
1 | $ x = \frac{x - \mu}{\sigma}$ |
开干
2024-11-19 08:14:32
1 | 大模型 |
D1-人工智能、KNN算法
2024-11-20 07:42:16
Python编程-jupyter
1 | - 了解基本的 `Python` 语法即可! |
机器学习-简介
1 | - * 算法:偏抽象的概念,是计算机解决问题的步骤和流程! |
代码实践-KNN
1 | -------------------------------- |
- 加载数据
1
2
3
4
5
6
7from sklearn.datasets import load_iris
# 获取数据
X, y = load_iris(return_X_y=True)
# X.shape # (150, 4) [sample_size, num_features]
# y.shape # (150,) sample_labels - 切分数据
1
2
3
4
5
6
7
8
9
10from sklearn.model_selection import train_test_split
# 20% 测试集 80% 训练集
# 训练数据 X_train y_train
# 测试数据 X_test y_test
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=0)
# X_train.shape (120, 4)
# y_train.shape (120,)
# X_test.shape (30, 4)
# y_test.shape (30,) - 套用模型
1
2
3
4
5
6
7
8
9
10
11
12
13from sklearn.neighbors import KNeighborsClassifier
# 实例化对象
knn = KNeighborsClassifier()
# 训练模型
knn.fit(X=X_train, y=y_train)
# 模型预测
y_pred = knn.predict(X=X_test)
# y_pred # 预测结果 array([2, 1, 0, 2, 0, 2, 0, 1, 1, 1, 2, 1, 1, 1, 2, 0, 1, 1, 0, 0, 2, 1, 0, 0, 2, 0, 0, 1, 1, 0])
# y_test # 真实结果 array([2, 1, 0, 2, 0, 2, 0, 1, 1, 1, 2, 1, 1, 1, 1, 0, 1, 1, 0, 0, 2, 1, 0, 0, 2, 0, 0, 1, 1, 0]) - 模型评估
1
2
3
4
5# y_pred == y_test # array([ True, True, True, True, True, True, True, True, True, True, True, True, True, True, False, True, True, True, True, True, True, True, True, True, True, True, True, True, True, True])
# acc(准确率 accuracy rate)
# mean 求平均
acc = (y_pred == y_test).mean() # 0.9666666666666667 - 模型的保存和加载
1
2
3
4
5
6
7import joblib
# 模型的保存
joblib.dump(value=knn, filename="knn.model") # 当前文件同级目录生成 knn.model 模型文件
# 模型的加载
model = joblib.load(filename="knn.model")
D2-科学计算、手写KNN
2024-11-21 07:26:30
传统编程
1 | # list |
科学计算-numpy
1 | """ |
余弦相相似度
1 | """ |
KNN-再回顾
1 | """ |
Counter
1 | from collections import Counter |
手写KNN-分类
1 | """ |
手写KNN-回归-房价预测
预测的是一个连续数据
1 | import pandas as pd |
day03-概率论、决策树
2024-11-22 08:05:51
概率论
1 | """ |
决策树
1 | """ |
熵 entropy
1 | """ |
day04上-数据读取、模型预测、FastAPI
2024-11-25 08:02:29
整理 2024-11-26
问题引入
1 | 1. 如何预测客户是否流失? |
数据读取-pandas
1 | """ |
建模预测-算法尝试
1 | """ |
FastAPI 快速入门
Github https://github.com/fastapi/fastapi
官方网站 https://fastapi.tiangolo.com/
1 | """ |
FastAPI C/S案例
1、创建main.py
1 | from fastapi import FastAPI |
2、创建client.py
1 | import requests |
3、测试一把
1 | - 启动 main.py |
day04下-特征重要性、线性模型、数据预处理
2024-11-27 08:15:16
特征重要性
1 | """ |
线性模型
1 | """ |
数据预处理
1 | """ |
day05上-KMeans、梯度下降法
2024-11-28 08:07:58
迭代法
1 | - 适合场景: |
KMeans聚类
1 | """ |
线性回归
1 | """ |
梯度下降法
1 | import numpy as np |
day05下-深度学习框架PyTorch
2024-11-29 07:53:15
深度学习框架
1 | """ |
PyTorch-安装、简单使用
1 | """ |
PyTorch-自动求导
1 | """ |
PyTorch-线性回归
1 | import torch |
PyTorch-逻辑回归
1 | """ |
day06-逻辑回归
2024-12-02 08:10:32
交叉熵
1 | """ |
逻辑回归-v1-底层
1 | """ |
逻辑回归-v2-框架
1 | """ |
疑问点
线性回归 (Linear Regression)
1 | """ |
逻辑回归 (Logistic Regression)
1 | """ |
线性回归 VS 逻辑回归
1 | 关键区别 |
损失值问题
1 | 1. 损失值的范围: |
为什么大写X,小写y?
2024-12-03 08:40:03
https://tongyi.aliyun.com/qianwen/?sessionId=d2a8f97a0f184b6388e2a509cb57e52c
1 | # X=特征 y=标签 |
什么是梯度下降?
2024-12-03 08:49:57
https://tongyi.aliyun.com/qianwen/?sessionId=1846b5bd371d4ac998dcf0820d74525f
机器学习 => 最小化损失函数 => 模型的最佳参数
1 | # 说明 |
day07-集成学习
机器学习
1 | - 机器:machine 不是机器设备,而是 "计算机软硬件组织" |
集成学习
1 | - Ensemble Learning |
集成学习-代码
1 | """ |
day08-OpenCV、卷积
2024-12-04 15:33:50
复习-深度学习
1 | 核心概念 |
图片处理 Matplotlib PIL OpenCV
1 | """ |
OpenCV-小案例
图片
1 | import cv2 |
摄像头
1 | # 引入 OpenCV |
卷积
0、图片先行
1 | 图1: |
1、简介
1 | 卷积操作 |
2、卷积操作(图片条纹)
1 | import cv2 |
3、卷积 计算模拟
1 | import numpy as np |
pytorch卷积
1 | import torch |
搭建LeNet5
1 | import torch |
day09-手势识别
2024-12-11 07:22:24
手势识别
1 | """ |
思维导图
2024-12-11
- 人工智能算法
- KNN算法
- 决策树
- 线性回归
- 逻辑回归
- 集成学习