• 最后更新 2024-03-16
  • 销量/好评 0 + 评论
  • 交易规则(重要)

【出版社旗舰店】机器学习公式详解 第2二版 机器学习周志华西瓜书伴侣南瓜书 深度强化学习人工智能入门chatgpt基础教程编程书籍
本站优惠价
44.90
5.0折 原价:¥89.8
  • 销量
  • 卖家
  • 59+
  • 人民邮电出版社官方旗舰店

服务由"人民邮电出版社官方旗舰店"发货,并提供售后服务。

    担保交易,安全保证,有问题不解决可申请退款。购买前请询问清楚卖家,以卖家承诺为准! 自动发货商品,随时可以购买,付款后在订单详情下载,零等待。 不同会员等级尊享不同购买折扣。
天猫优惠券

天猫优惠券

已缴纳保证金

该商家已加入保障计划

【出版社旗舰店】机器学习公式详解 第2二版 机器学习周志华西瓜书伴侣南瓜书 深度强化学习人工智能入门chatgpt基础教程编程书籍

【出版社旗舰店】机器学习公式详解 第2二版 机器学习周志华西瓜书伴侣南瓜书 深度强化学习人工智能入门chatgpt基础教程编程书籍

【出版社旗舰店】机器学习公式详解 第2二版 机器学习周志华西瓜书伴侣南瓜书 深度强化学习人工智能入门chatgpt基础教程编程书籍
内容介绍

周志华老师的《机器学习》(俗称“西瓜书”)是机器学习领域的*入门教材之一。本书是《机器学习公式详解》(俗称“南瓜书”)的第2 版。相较于第1 版,

本书对“西瓜书”中除了公式以外的重、难点内容加以解析,以过来人视角给出学习建议,旨在对比较难理解的公式和重点内容扩充具体的例子说明,以及对跳步

过大的公式补充具体的推导细节。


全书共16 章,与“西瓜书”章节、公式对应,每个公式的推导和解释*以本科数学基础的视角进行讲解,希望能够帮助读者快速掌握各个机器学习算法背后的数学原理。


本书思路清晰,视角独特,结构合理,可作为高等院校计算机及相关专业的本科生或研究生教材,也可供对机器学习感兴趣的研究人员和工程技术人员阅读参考



目录

序(王斌  小米AI 实验室主任、NLP *科学家)

前言

主要符号表

资源与支持


第 1 章 绪论   1

1.1 引言    1

1.2 基本术语  1

1.3 假设空间  5

1.4 归纳偏好  5

1.4.1 式(1.1) 和式(1.2) 的解释 6


第 2 章 模型评估与选择  8

2.1 经验误差与过拟合  8

2.2 评估方法  9

2.2.1 算法参数(*参数)与模型参数  10

2.2.2 验证集  10

2.3 性能度量  11

2.3.1 式(2.2) ~ 式(2.7) 的解释  11

2.3.2 式(2.8) 和式(2.9) 的解释  11

2.3.3 图2.3 的解释  11

2.3.4 式(2.10) 的推导  11

2.3.5 式(2.11) 的解释  12

2.3.6 式(2.12) ~ 式(2.17) 的解释  13

2.3.7 式(2.18) 和式(2.19) 的解释  13

2.3.8 式(2.20) 的推导  14

2.3.9 式(2.21) 和式(2.22) 的推导  16

2.3.10 式(2.23) 的解释  18

2.3.11 式(2.24) 的解释  19

2.3.12 式(2.25) 的解释  20

2.4 比较检验  22

2.4.1 式(2.26) 的解释  22

2.4.2 式(2.27) 的推导  23

2.5 偏差与方差  26

2.5.1 式(2.37) ~ 式(2.42) 的推导  26

参考文献  29


第3 章 线性模型  30

3.1 基本形式  30

3.2 线性回归  30

3.2.1 属性数值化  30

3.2.2 式(3.4) 的解释  31

3.2.3 式(3.5) 的推导  32

3.2.4 式(3.6) 的推导  32

3.2.5 式(3.7) 的推导  33

3.2.6 式(3.9) 的推导  35

3.2.7 式(3.10) 的推导  36

3.2.8 式(3.11) 的推导  36

3.3 对率回归  39

3.3.1 式(3.27) 的推导  39

3.3.2 梯度下降法  41

3.3.3 牛顿法  42

3.3.4 式(3.29) 的解释  44

3.3.5 式(3.30) 的推导  44

3.3.6 式(3.31) 的推导  45

3.4 线性判别分析 46

3.4.1 式(3.32) 的推导  46

3.4.2 式(3.37) ~ 式(3.39) 的推导  47

3.4.3 式(3.43) 的推导  48

3.4.4 式(3.44) 的推导  48

3.4.5 式(3.45) 的推导  49

3.5 多分类学习  52

3.5.1 图3.5 的解释  52

3.6 类别不平衡问题  52

参考文献  52


第4 章 决策树  53

4.1 基本流程  53

4.2 划分选择  54

4.2.1 式(4.1) 的解释  54

4.2.2 式(4.2) 的解释  58

4.2.3 式(4.4) 的解释  58

4.2.4 式(4.5) 的推导  59

4.2.5 式(4.6) 的解释  59

4.3 剪枝处理  62

4.4 连续值与缺失值  63

4.4.1 式(4.7) 的解释  63

4.4.2 式(4.8) 的解释  64

4.4.3 式(4.12) 的解释  64

4.5 多变量决策树 64

4.5.1 图4.10 的解释  65

4.5.2 图4.11 的解释  65

参考文献  66


第5 章 神经网络  67

5.1 神经元模型  67

5.2 感知机与多层网络  67

5.2.1 式(5.1) 和式(5.2) 的推导  67

5.2.2 图5.5 的解释  70

5.3 误差逆传播算法  70

5.3.1 式(5.10) 的推导  70

5.3.2 式(5.12) 的推导  70

5.3.3 式(5.13) 的推导  71

5.3.4 式(5.14) 的推导  72

5.3.5 式(5.15) 的推导  73

5.4 全局*小与局部极小  73

5.5 其他常见神经网络  73

5.5.1 式(5.18) 的解释  73

5.5.2 式(5.20) 的解释  73

5.5.3 式(5.22) 的解释  74

5.5.4 式(5.23) 的解释  74

5.6 深度学习  74

5.6.1 什么是深度学习  75

5.6.2 深度学习的起源  75

5.6.3 怎么理解特征学习 75

参考文献  75


第6 章 支持向量机  77

6.1 间隔与支持向量  77

6.1.1 图6.1 的解释  77

6.1.2 式(6.1) 的解释  77

6.1.3 式(6.2) 的推导  78

6.1.4 式(6.3) 的推导  78

6.1.5 式(6.4) 的推导  80

6.1.6 式(6.5) 的解释  80

6.2 对偶问题  80

6.2.1 凸优化问题  80

6.2.2 KKT 条件  80

6.2.3 拉格朗日对偶函数 81

6.2.4 拉格朗日对偶问题 82

6.2.5 式(6.9) 和式(6.10) 的推导  85

6.2.6 式(6.11) 的推导  85

6.2.7 式(6.13) 的解释  86

6.3 核函数  87

6.3.1 式(6.22) 的解释  87

6.4 软间隔与正则化  87

6.4.1 式(6.35) 的推导  87

6.4.2 式(6.37) 和式(6.38) 的推导  87

6.4.3 式(6.39) 的推导  87

6.4.4 式(6.40) 的推导  88

6.4.5 对率回归与支持向量机的关系  88

6.4.6 式(6.41) 的解释  89

6.5 支持向量回归 89

6.5.1 式(6.43) 的解释  89

6.5.2 式(6.45) 的推导  90

6.5.3 式(6.52) 的推导  91

6.6 核方法  92

6.6.1 式(6.57) 和式(6.58) 的解释  92

6.6.2 式(6.65) 的推导  92

6.6.3 式(6.66) 和式(6.67) 的解释  93

6.6.4 式(6.70) 的推导  94

6.6.5 核对率回归  98

参考文献  99


第7 章 贝叶斯分类器  100

7.1 贝叶斯决策论  100

7.1.1 式(7.5) 的推导  100

7.1.2 式(7.6) 的推导  100

7.1.3 判别式模型与生成式模型 100

7.2 极大似然估计  101

7.2.1 式(7.12) 和式(7.13) 的推导  101

7.3 朴素贝叶斯分类器  104

7.3.1 式(7.16) 和式(7.17) 的解释  104

7.3.2 式(7.18) 的解释  104

7.3.3 贝叶斯估计  105

7.3.4 Categorical 分布  105

7.3.5 Dirichlet 分布  106

7.3.6 式(7.19) 和式(7.20) 的推导  106

7.4 半朴素贝叶斯分类器 110

7.4.1 式(7.21) 的解释  110

7.4.2 式(7.22) 的解释  111

7.4.3 式(7.23) 的推导  111

7.4.4 式(7.24) 和式(7.25) 的推导  112

7.5 贝叶斯网  112

7.5.1 式(7.27) 的解释  112

7.6 EM 算法  113

7.6.1 Jensen 不等式 113

7.6.2 EM 算法的推导  113

参考文献  121


第8 章 集成学习  122

8.1 个体与集成  123

8.1.1 式(8.1) 的解释  123

8.1.2 式(8.2) 的解释  123

8.1.3 式(8.3) 的推导  123

8.2 Boosting   124

8.2.1 式(8.4) 的解释  125

8.2.2 式(8.5) 的解释  125

8.2.3 式(8.6) 的推导  126

8.2.4 式(8.7) 的推导  126

8.2.5 式(8.8) 的推导  127

8.2.6 式(8.9) 的推导  127

8.2.7 式(8.10) 的解释  128

8.2.8 式(8.11) 的推导  128

8.2.9 式(8.12) 的解释  129

8.2.10 式(8.13) 的推导  129

8.2.11 式(8.14) 的推导  130

8.2.12 式(8.16) 的推导  131

8.2.13 式(8.17) 的推导  131

8.2.14 式(8.18) 的推导  132

8.2.15 式(8.19) 的推导  132

8.2.16 AdaBoost 的个人推导  133

8.2.17 进一步理解权重更新公式 137

8.2.18 能够接受带权样本的基学习算法  139

8.3 Bagging 与随机森林  140

8.3.1 式(8.20) 的解释  140

8.3.2 式(8.21) 的推导  140

8.3.3 随机森林的解释  141

8.4 结合策略  141

8.4.1 式(8.22) 的解释  141

8.4.2 式(8.23) 的解释  141

8.4.3 硬投票和软投票的解释  141

8.4.4 式(8.24) 的解释  142

8.4.5 式(8.25) 的解释  142

8.4.6 式(8.26) 的解释  142

8.4.7 元学习器的解释  142

8.4.8 Stacking 算法的解释  143

8.5 多样性  143

8.5.1 式(8.27) 的解释  143

8.5.2 式(8.28) 的解释  143

8.5.3 式(8.29) 的解释  143

8.5.4 式(8.30) 的解释  144

8.5.5 式(8.31) 的推导  144

8.5.6 式(8.32) 的解释  144

8.5.7 式(8.33) 的解释  145

8.5.8 式(8.34) 的解释  145

8.5.9 式(8.35) 的解释  145

8.5.10 式(8.36) 的解释  145

8.5.11 式(8.40) 的解释  145

8.5.12 式(8.41) 的解释  146

8.5.13 式(8.42) 的解释  146

8.5.14 多样性增强的解释  146

8.6 Gradient Boosting、GBDT、XGBoost的联系与区别  147

8.6.1 从梯度下降的角度解释AdaBoost   147

8.6.2 梯度提升  149

8.6.3 梯度提升树(GBDT)   151

8.6.4 XGBoost   152

参考文献  152


第9 章 聚类  153

9.1 聚类任务  153

9.2 性能度量  153

9.2.1 式(9.5) 的解释  153

9.2.2 式(9.6) 的解释  155

9.2.3 式(9.7) 的解释  155

9.2.4 式(9.8) 的解释  156

9.2.5 式(9.12) 的解释  156

9.3 距离计算  156

9.3.1 式(9.21) 的解释  156

9.4 原型聚类  157

9.4.1 式(9.28) 的解释  157

9.4.2 式(9.29) 的解释  157

9.4.3 式(9.30) 的解释  158

9.4.4 式(9.31) 的解释  159

9.4.5 式(9.32) 的解释  159

9.4.6 式(9.33) 的推导  160

9.4.7 式(9.34) 的推导  161

9.4.8 式(9.35) 的推导  162

9.4.9 式(9.36) 的解释  164

9.4.10 式(9.37) 的推导  164

9.4.11 式(9.38) 的推导  165

9.4.12 图9.6 的解释  166

9.5 密度聚类  166

9.5.1 密度直达、密度可达与密度相连  167

9.5.2 图9.9 的解释  168

9.6 层次聚类  168


第 10 章 降维与度量学习  170

10.1 预备知识  170

10.1.1 符号约定  170

10.1.2 矩阵与单位阵、向量的乘法 170

10.2 矩阵的F 范数与迹  171

10.3 k 近邻学习  173

10.3.1 式(10.1) 的解释  173

10.3.2 式(10.2) 的推导  174

10.4 低维嵌入  175

10.4.1 图10.2 的解释  175

10.4.2 式(10.3) 的推导  175

10.4.3 式(10.4) 的推导  176

10.4.4 式(10.5) 的推导  177

10.4.5 式(10.6) 的推导  177

10.4.6 式(10.10) 的推导  178

10.4.7 式(10.11) 的解释  179

10.4.8 图10.3 关于MDS 算法的解释 179

10.5 主成分分析 180

10.5.1 式(10.14) 的推导  180

10.5.2 式(10.16) 的解释  184

10.5.3 式(10.17) 的推导  186

10.5.4 根据式(10.17) 求解式(10.16)   188

10.6 核化线性降维  188

10.6.1 式(10.19) 的解释  189

10.6.2 式(10.20) 的解释  189

10.6.3 式(10.21) 的解释  190

10.6.4 式(10.22) 的解释  190

10.6.5 式(10.24) 的推导  190

10.6.6 式(10.25) 的解释  191

10.7 流形学习  191

10.7.1 等度量映射(Isomap) 的解释  191

10.7.2 式(10.28) 的推导  192

10.7.3 式(10.31) 的推导  194

10.8 度量学习  196

10.8.1 式(10.34) 的解释  196

10.8.2 式(10.35) 的解释  197

10.8.3 式(10.36) 的解释  197

10.8.4 式(10.37) 的解释  198

10.8.5 式(10.38) 的解释  198

10.8.6 式(10.39) 的解释  198

参考文献  199


第 11 章 特征选择与稀疏学习  200

11.1 子集搜索与评价  200

11.1.1 式(11.1) 的解释  200

11.1.2 式(11.2) 的解释  200

11.2 过滤式选择 201

11.3 包裹式选择 201

11.4 嵌入式选择与L1 正则化  202

11.4.1 式(11.5) 的解释  202

11.4.2 式(11.6) 的解释  202

11.4.3 式(11.7) 的解释  203

11.4.4 式(11.8) 的解释  203

11.4.5 式(11.9) 的解释  203

11.4.6 式(11.10) 的推导  203

11.4.7 式(11.11) 的解释  205

11.4.8 式(11.12) 的解释  205

11.4.9 式(11.13) 的解释  205

11.4.10 式(11.14) 的推导  205

11.5 稀疏表示与字典学习  208

11.5.1 式(11.15) 的解释  208

11.5.2 式(11.16) 的解释  208

11.5.3 式(11.17) 的推导  208

11.5.4 式(11.18) 的推导  208

11.6 压缩感知  213

11.6.1 式(11.21) 的解释  213

11.6.2 式(11.25) 的解释  213

参考文献  214


第 12 章 计算学习理论  215

12.1 基础知识  215

12.1.1 式(12.1) 的解释  216

12.1.2 式(12.2) 的解释  216

12.1.3 式(12.3) 的解释  216

12.1.4 式(12.4) 的解释  216

12.1.5 式(12.5) 和式(12.6) 的解释  216

12.1.6 式(12.7) 的解释  217

12.2 PAC 学习  217

12.2.1 式(12.9) 的解释  218

12.3 有限假设空间  218

12.3.1 式(12.10) 的解释  219

12.3.2 式(12.11) 的解释  219

12.3.3 式(12.12) 的推导  219

12.3.4 式(12.13) 的解释  220

12.3.5 式(12.14) 的推导  220

12.3.6 引理12.1 的解释  221

12.3.7 式(12.18) 的推导  221

12.3.8 式(12.19) 的推导  221

12.3.9 式(12.20) 的解释  222

12.4 VC 维 223

12.4.1 式(12.21) 的解释  223

12.4.2 式(12.22) 的解释  223

12.4.3 式(12.23) 的解释  224

12.4.4 引理12.2 的解释  224

12.4.5 式(12.28) 的解释  226

12.4.6 式(12.29) 的解释  227

12.4.7 式(12.30) 的解释  227

12.4.8 定理12.4 的解释  228

12.5 Rademacher 复杂度  229

12.5.1 式(12.36) 的解释  229

12.5.2 式(12.37) 的解释  229

12.5.3 式(12.38) 的解释  230

12.5.4 式(12.39) 的解释  230

12.5.5 式(12.40) 的解释  231

12.5.6 式(12.41) 的解释  231

12.5.7 定理12.5 的解释  231

12.6 定理12.6 的解释  233

12.6.1 式(12.52) 的证明  235

12.6.2 式(12.53) 的推导  235

12.7 稳定性  235

12.7.1 泛化损失/经验损失/留一损失的解释  236

12.7.2 式(12.57) 的解释  236

12.7.3 定理12.8 的解释  236

12.7.4 式(12.60) 的推导  237

12.7.5 经验损失*小化  237

12.7.6 定理12.9 的证明的解释  237

参考文献  238


第 13 章 半监督学习  240

13.1 未标记样本 240

13.2 生成式方法 240

13.2.1 式(13.1) 的解释  241

13.2.2 式(13.2) 的推导  241

13.2.3 式(13.3) 的推导  242

13.2.4 式(13.4) 的推导  242

13.2.5 式(13.5) 的解释  242

13.2.6 式(13.6) 的解释  243

13.2.7 式(13.7) 的解释  244

13.2.8 式(13.8) 的解释  246

13.3 半监督SVM   248

13.3.1 图13.3 的解释  248

13.3.2 式(13.9) 的解释  248

13.3.3 图13.4 的解释  248

13.3.4 式(13.10) 的解释  250

13.4 图半监督学习  250

13.4.1 式(13.12) 的推导  251

13.4.2 式(13.13) 的推导  252

13.4.3 式(13.14) 的推导  253

13.4.4 式(13.15) 的推导  253

13.4.5 式(13.16) 的解释  254

13.4.6 式(13.17) 的推导  254

13.4.7 式(13.18) 的解释  254

13.4.8 式(13.20) 的解释  254

13.4.9 式(13.21) 的推导  255

13.5 基于分歧的方法  259

13.5.1 图13.6 的解释  259

13.6 半监督聚类 260

13.6.1 图13.7 的解释  260

13.6.2 图13.9 的解释  260

参考文献  260


第 14 章 概率图模型  261

14.1 隐马尔可夫模型  261

14.1.1 生成式模型和判别式模型 261

14.1.2 式(14.1) 的推导  262

14.1.3 隐马尔可夫模型的三组参数 263

14.2 马尔可夫随机场  263

14.2.1 式(14.2) 和式(14.3) 的解释  263

14.2.2 式(14.4) ~ 式(14.7) 的推导  264

14.2.3 马尔可夫毯  264

14.2.4 势函数  265

14.2.5 式(14.8) 的解释  265

14.2.6 式(14.9) 的解释  265

14.3 条件随机场 265

14.3.1 式(14.10) 的解释  265

14.3.2 式(14.11) 的解释  266

14.4 学习与推断 266

14.4.1 式(14.14) 的推导  266

14.4.2 式(14.15) 和式(14.16) 的推导  266

14.4.3 式(14.17) 的解释  267

14.4.4 式(14.18) 的推导  267

14.4.5 式(14.19) 的解释  267

14.4.6 式(14.20) 的解释  268

14.4.7 式(14.22) 的推导  268

14.4.8 图14.8 的解释  269

14.5 近似推断  269

14.5.1 式(14.21) ~ 式(14.25) 的解释  269

14.5.2 式(14.26) 的解释  270

14.5.3 式(14.27) 的解释  270

14.5.4 式(14.28) 的推导  270

14.5.5 吉布斯采样与MH 算法  271

14.5.6 式(14.29) 的解释  272

14.5.7 式(14.30) 的解释  272

14.5.8 式(14.31) 的解释  273

14.5.9 式(14.32) ~ 式(14.34) 的推导  273

14.5.10 式(14.35) 的解释  274

14.5.11 式(14.36) 的推导  274

14.5.12 式(14.37) 和式(14.38) 的解释  276

14.5.13 式(14.39) 的解释  277

14.5.14 式(14.40) 的解释  277

14.6 话题模型  278

14.6.1 式(14.41) 的解释  278

14.6.2 式(14.42) 的解释  279

14.6.3 式(14.43) 的解释  279

14.6.4 式(14.44) 的解释  279

参考文献  279


第 15 章 规则学习 280

15.1 剪枝优化  280

15.1.1 式(15.2) 和式(15.3) 的解释  280

15.2 归纳逻辑程序设计  281

15.2.1 式(15.6) 的解释  281

15.2.2 式(15.7) 的推导  281

15.2.3 式(15.9) 的推导  281

15.2.4 式(15.10) 的解释  281

15.2.5 式(15.11) 的解释  281

15.2.6 式(15.12) 的解释  282

15.2.7 式(15.13) 的解释  282

15.2.8 式(15.16) 的推导  282


第 16 章 强化学习 283

16.1 任务与奖赏 283

16.2 K-摇臂赌博机  283

16.2.1 式(16.2) 和式(16.3) 的推导  283

16.2.2 式(16.4) 的解释  283

16.3 有模型学习 284

16.3.1 式(16.7) 的解释  284

16.3.2 式(16.8) 的推导  284

16.3.3 式(16.10) 的推导  285

16.3.4 式(16.14) 的解释  285

16.3.5 式(16.15) 的解释  285

16.3.6 式(16.16) 的推导  285

16.4 免模型学习 286

16.4.1 式(16.20) 的解释  286

16.4.2 式(16.23) 的解释  286

16.4.3 式(16.31) 的推导  286

16.5 值函数近似 287

16.5.1 式(16.33) 的解释  287

16.5.2 式(16.34) 的推导  287

参考文献  287



作者介绍

谢文睿

北京工业大学硕士,Datawhale开源项目负责人,百度算法工程师,研究方向为机器学习与自然语言处理。


秦州

康奈尔大学计算机硕士,Datawhale成员,阿里巴巴算法*,研究方向为图计算与自然语言处理, 在NeurIPS、AAAI、CIKM等会议上录用多篇学术论文并获得

CIKM 2019*应用论文奖。


贾彬彬

工学博士,兰州理工大学讲师,研究方向为机器学习与数据挖掘,在TKDE、TNNLS、PRJ、ICML、AAAI等期刊和会议上共发表学术论文十余篇,并担任ICML、

NeurIPS、ICLR、AAAI、IJCAI 等会议的程序委员会委员(PC Member)。


  • 商品评价
  • 交易规则


  • 发货方式


  • 自动:在特色服务中标有自动发货的商品,拍下后,源码类 软件类 商品会在订单详情页显示来自卖家的商品下载链接,点卡类 商品会在订单详情直接显示卡号密码。

    手动:未标有自动发货的的商品,付款后,商品卖家会收到平台的手机短信、邮件提醒,卖家会尽快为您发货,如卖家长时间未发货,买家也可通过订单上的QQ或电话主动联系卖家。


  • 退款说明


  • 1、源码类:商品详情(含标题)与实际源码不一致的(例:描述PHP实际为ASP、描述的功能实际缺少、功能不能正常使用等)!有演示站时,与实际源码不一致的(但描述中有"不保证完全一样、可能有少许偏差"类似显著公告的除外);

  • 2、营销推广:未达到卖家描述标准的;

    3、点卡软件所售点卡软件无法使用的;

  • 3、发货:手动发货商品,在卖家未发货前就申请了退款的;

    4、服务:卖家不提供承诺的售后服务的;(双方提前有商定和描述中有显著声明的除外)

    5、其他:如商品或服务有质量方面的硬性常规问题的。未符合详情及卖家承诺的。

  • 注:符合上述任一情况的,均支持退款,但卖家予以积极解决问题则除外。交易中的商品,卖家无法修改描述!


  • 注意事项


  • 1、在付款前,双方在QQ上所商定的内容,也是纠纷评判依据(商定与商品描述冲突时,以商定为准);

    2、源码商品,同时有网站演示与商品详情图片演示,且网站演示与商品详情图片演示不一致的,默认按商品详情图片演示作为纠纷评判依据(卖家有特别声明或有额外商定的除外);

  • 3、点卡软件商品,默认按商品详情作为纠纷评判依据(特别声明或有商定除外);

  • 4、营销推广商品,默认按商品详情作为纠纷评判依据(特别声明或有商定除外);

    5、在有"正当退款原因和依据"的前提下,写有"一旦售出,概不支持退款"等类似的声明,视为无效声明;

    6、虽然交易产生纠纷的几率很小,卖家也肯定会给买家最完善的服务!但请买卖双方尽量保留如聊天记录这样的重要信息,以防产生纠纷时便于送码网快速介入处理。


  • 送码声明


  • 1、送码网作为第三方中介平台,依据双方交易合同(商品描述、交易前商定的内容)来保障交易的安全及买卖双方的权益;

  • 2、非平台线上交易的项目,出现任何后果均与送码网无关;无论卖家以何理由要求线下交易的(如:要求买家支付宝转账付款的,微信转账付款的等),请联系管理举报,本平台将清退卖家处理。