课程大纲
第一阶段:算法部分(理论篇)

第 1 周:AI 概述与基础知识 + 数学基础

知识点
  • 课程介绍与环境准备:了解课程目标、形式、带练方式,熟悉本地 Python 环境和阿里云 Notebook 的使用。
  • AI 发展与核心概念: 回顾 AI 的发展历程,明确人工智能(AI)、机器学习(ML)、深度学习(DL)和生成式 AI 的基本概念及其相互关系。了解中国 AI 产业化浪潮中互联网大厂的战略布局。
  • 主要学派简介与代表方法: 初步了解符号主义(规则与逻辑、知识图谱)、行为主义(强化学习)、连接主义(神经网络与深度学习)的主要思想和代表方法。
  • 数学基础(微积分初步):
    • 函数概念:简单介绍函数的概念(例如,输入到输出的映射)。
    • 导数的概念与直观解释:重点讲解导数的概念,可以从斜率入手,解释导数是函数在某一点的变化率。
    • 偏导数简介:简单介绍偏导数的概念,用于理解多元函数的变化。
    • 导数在优化问题中的应用:强调导数在优化问题中的作用,例如寻找函数的最小值(为后续的梯度下降算法做铺垫)。
  • 数学基础(概率论初步):
    • 概率的基本概念:介绍概率的基本概念(事件、样本空间、概率的定义)。
    • 条件概率简介:简单介绍条件概率的概念。
    • 随机变量:介绍随机变量(离散型和连续型)的概念。
    • 常见概率分布简介:简单介绍常见的概率分布(如均匀分布、正态分布),理解数据分布的概念。
产业案例与实践带练
  • 平台体验与环境配置:登录阿里云 Notebook,演示 Python 环境及 GPU 调用。安装 PyTorch 并验证 GPU 是否可用。
  • 早期 AI 案例体验:了解早期经典案例,如 GPS(简单介绍)与 Deep Blue(结合搜索与评估函数)。快速演示简化的搜索脚本(如 BFS/A* 算法应用于物流路径规划)。展示感知机二分类脚本及可视化边界,帮助学员直观理解基本原理。
  • 数学概念的应用理解:使用简单的函数进行直观解释导数的概念,并思考导数如何在寻找函数最小值时发挥作用。在数据科学与机器学习中,优化算法是模型训练的核心,了解导数和偏导数的概念可以帮助理解梯度下降等算法的本质。
  • 数据准备初步:演示 MNIST、CIFAR 等数据集的下载、准备与初步加载过程。了解数据收集、清洗与预处理的基本概念和常用方法。
第二阶段:AI系统工程师(专业实践)

第 9 周:模型部署与推理优化

知识点
  • 模型部署基础与容器化:了解模型部署的整体流程;初步掌握容器化技术 Docker 的基本概念和常用操作;学习如何构建包含模型推理代码的 Docker 镜像,为不同环境的部署打下基础。
  • 在线推理服务构建:了解如何使用 Flask 或 FastAPI 等框架搭建简单的模型推理 API,为云端和边缘端的在线服务提供基础;理解 RESTful API 设计原则。
  • 推理性能优化初步与框架选型:了解影响模型推理性能的主要因素,如延迟、吞吐量和资源占用;初步了解模型量化、剪枝和知识蒸馏等优化技术,以及它们在不同部署环境下的适用性;重点介绍云端(如 TensorFlow Serving, TorchServe)、边缘端(如 TensorFlow Lite, ONNX Runtime)和端侧设备(如 Core ML, MediaPipe)常用的推理框架及其特点和选型考虑。
  • 云边端模型部署方案:
    • 云端部署: 了解云平台(如阿里云 ModelArts, AWS SageMaker, Google AI Platform)提供的模型部署服务及其优势。
    • 边缘端部署: 理解边缘计算的概念和优势,了解在边缘设备上部署模型的常见方式和挑战。
    • 端侧部署: 了解在移动设备、嵌入式设备等端侧部署模型的特殊考虑,如模型大小、功耗和硬件加速。
产业案例与实践带练
  • 模型容器化与云端推理框架体验:
    • 使用 Dockerfile 构建一个包含模型推理代码的容器。
    • 如何在容器中集成云端常用的推理框架(如 TensorFlow Serving 或 TorchServe),并进行简单的模型部署和测试。
  • 在线推理 API 构建与边缘端推理框架初步:
    • 使用 Flask 或 FastAPI 搭建一个简单的 Web 服务,该服务能够接收输入数据,调用预训练的模型进行推理,并将结果返回给用户。
    • 初步体验在本地使用边缘端推理框架(如 TensorFlow Lite 或 ONNX Runtime)加载模型并进行推理,为后续边缘部署打下基础。
  • 推理性能优化方法与端侧推理框架了解:
    • 演示如何对一个简单的模型进行量化操作,并观察模型大小和推理速度的变化。
    • 介绍端侧推理框架(如 Core ML 或 MediaPipe)的基本概念和使用场景,了解其在移动设备和嵌入式设备上的优势。
  • 云边端模型部署流程了解:
    • 演示如何在阿里云 ModelArts 或类似平台上进行云端模型部署,并了解其提供的不同部署选项(如在线服务、批量预测等)。
    • 介绍边缘计算平台(如阿里云 Link IoT Edge)和端侧部署工具的基本使用流程和注意事项,熟悉不同部署环境的特点和流程,能够帮助选择合适的部署方案。
讲师介绍
声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。