Buscar
Estás en modo de exploración. debe iniciar sesión para usar MEMORY

   Inicia sesión para empezar


Por supuesto:

Intro to AI 2

» Iniciar este curso
(Practica preguntas similares gratis)
Pregunta:

Activation functions

Autor: Christian N



Respuesta:

(a) is a step function or threshold function (b) is a rectified linear function ReLU(x): max(0,x) The smooth version (everywhere-differentiable) of ReLU is called soft plus softPlus(x) : log(1 + eX) Changing the bias weight W0,i moves the threshold location


0 / 5  (0 calificaciones)

1 answer(s) in total