Está en la página 1de 5

Universidad Autónoma de Nuevo León

Facultad de Ingeniería Mecánica y Eléctrica

Materia: programación de sistemas adaptativos

Examen Ord

Maestro: Laura Patricia Del Bosque Vega

Alumno: Edson Gabriel Ramirez García

Matricula: 2082595 Carrera: ITS


1. Inicializar los pesos: \(w_0 = 1, w_1 = 0, w_2 = 0\).

2. Para cada ejemplo de entrenamiento:

- Calcular la salida del perceptrón: \(y = f(w_0x_0 + w_1x_1 + w_2x_2)\), donde \(f\) es la función
escalonada y \(x_0, x_1, x_2\) son las entradas.

- Actualizar los pesos según la regla de aprendizaje: \(w_i = w_i + \eta (d - y) x_i\), donde \(\eta\)
es la tasa de aprendizaje, \(d\) es la etiqueta deseada, \(y\) es la salida del perceptrón y \(x_i\) es
la entrada correspondiente.

3. Repetir el paso 2 para cada ejemplo de entrenamiento hasta que el perceptrón converja o se
alcance un número máximo de iteraciones.

Vamos a aplicar estos pasos para los dos primeros ejemplos de la primera iteración:

- Ejemplo 1: \(((-1, 0, 0), 0)\)

- \(y = f(1 \times -1 + 0 \times 0 + 0 \times 0) = f(-1) = 0\) (la etiqueta deseada es 0).

- Actualizar los pesos:

- \(w_0 = 1 + 0.1 \times (0 - 0) \times -1 = 1\)

- \(w_1 = 0 + 0.1 \times (0 - 0) \times 0 = 0\)

- \(w_2 = 0 + 0.1 \times (0 - 0) \times 0 = 0\)

- Ejemplo 2: \(((-1, 0, 1), 1)\)

- \(y = f(1 \times -1 + 0 \times 0 + 0 \times 1) = f(-1) = 0\) (la etiqueta deseada es 1).

- Actualizar los pesos:

- \(w_0 = 1 + 0.1 \times (1 - 0) \times -1 = 1.1\)

- \(w_1 = 0 + 0.1 \times (1 - 0) \times 0 = 0\)

- \(w_2 = 0 + 0.1 \times (1 - 0) \times 1 = 0.1\)

Después de estos dos ejemplos de la primera iteración, los nuevos valores de los pesos son \(w_0
= 1.1, w_1 = 0, w_2 = 0.1\). Puedes seguir este proceso para entrenar el perceptrón con los demás
ejemplos y repetir iteraciones hasta que converja.
Dado que Caliente tiene dos puntos de membresía (5, 0.2) y (40, 0.9), y Alto tiene dos puntos de
membresía (2, 0.5) y (3, 0.9), necesitamos interpolar para obtener el grado de membresía
correspondiente a los valores específicos de x e y.

Supongamos que los valores específicos son \(x = 15\) y \(y = 2.5\). Para Caliente, interpolaríamos
entre (5, 0.2) y (40, 0.9), y para Alto, interpolaríamos entre (2, 0.5) y (3, 0.9).

Interpolación lineal para Caliente:

\[ \mu_{\text{Caliente}}(15) = 0.2 + \frac{(15 - 5) \times (0.9 - 0.2)}{(40 - 5)} \]

Interpolación lineal para Alto:

\[ \mu_{\text{Alto}}(2.5) = 0.5 + \frac{(2.5 - 2) \times (0.9 - 0.5)}{(3 - 2)} \]

Después de calcular estos valores, la implicación de producto Mamdani se obtiene multiplicando


los grados de membresía resultantes:

\[ \mu_{\text{QMP}}(x, y) = \mu_{\text{Caliente}}(15) \times \mu_{\text{Alto}}(2.5) \]


Pasos para determinar la oferta de cada agente, el agente ganador y el precio que pagará el
ganador:

1. **Oferta de cada agente:**

- Cada agente presenta una oferta basada en su valor privado del bien.

- La oferta de cada agente es su valor interno para el bien.

2. **Agente ganador:**

- El agente que hace la oferta más alta es el ganador.

3. **Precio que pagará el agente ganador:**

- El precio que pagará el agente ganador es la oferta del segundo mejor postor.

También podría gustarte