Machine Learning

Escuela de Computación

Universidad Central de Venezuela

SVM

Pronto

Visualizer

Función Objetivo SVC

minw,b,ξ    12w2+Ci=1nξi\underset{\mathbf{w},b, \xi}{\min}\;\; \frac{1}{2} \|\mathbf{w}\|^2 + C \sum_{i=1}^n \xi_i

yi(wxi+b)1ξiy_i (\mathbf{w}^\top \mathbf{x}_i + b) \geq 1 - \xi_i

ξi0\xi_i \geq 0

Parámetros

Parámetro C:

↑ C alto = menos regularización

Kernel:

Tipo de kernel para SVC

Varianza (σ²):

Dispersión de los clusters

N (puntos):

Mínimo 10 puntos

Random State:

Semilla para reproducibilidad

Ajusta C para observar el trade-off entre margen amplio y errores de clasificación

Visualización

Hiperplano y márgenes

Vectores de soporte

Variables de holgura (ξ)

Vector normal w

Estadísticas

Vectores de Soporte:

0

Puntos 0 < ξ ≤ 1:

0

Puntos ξ > 1:

0

Precisión:

0.0%

Datos

Distribución de los blobs generados

Clasificador SVM

Hiperplano, márgenes y slacks

Vectores de Soporte

x₁x₂yᵢw·x + bξ1 - ξ

El teorema de representación prueba que la solución para w\mathbf{w} puede ser siempre escrita como una combinación lineal de los datos:

w=j=1Nαjyjxj\mathbf{w}=\displaystyle\sum_{j=1}^N \alpha_j y_j \mathbf{x}_j

Hecho por Fernando Crema García

·

dl.ucv.ai

·

ml-25.ucv.ai

Built with Reflex