2.9.7 IS/Razonamiento Bajo Incertidumbre
Temas:
Electivo
- Revisión de Probabilidad Básica
- Variables aleatorias y distribuciones de probabilidad:
- Axiomas de probabilidad
- Inferencia probabilística
- Regla de Bayes
- Independecia Condicional
- Representaciones del conocimiento:
- Redes bayesianas
- Inferencia exacta y su complejidad
- Métodos de Muestreo aleatorio (Monte Carlo) (p.e. Muestreo de Gibbs)
- Redes Markov
- Modelos de probabilidad relacional
- Modelos ocultos de Markov
- Teoria de decisiones:
- Preferencias y funciones de utilidad
- Maximizando la utilidad esperada
Objetivos de Aprendizaje (Learning Outcomes):
Elective:
- Aplicar la regla de Bayes para determinar el cumplimiento de una hipótesis [Usar]
- Explicar cómo al tener independencia condicional permite una gran eficiencia en sistemas probabilísticos [Evaluar]
- Identificar ejemplos de representación de conocimiento para razonamiento bajo incertidumbre [Familiarizarse]
- Indicar la complejidad de la inferencia exacta. Identificar métodos para inferencia aproximada [Familiarizarse]
- Diseñar e implementar, al menos una representación de conocimiento para razonamiento bajo incertidumbre [Usar]
- Describir la complejidad del razonamiento probabilístico en el tiempo [Familiarizarse]
- Diseñar e implementar un Modelo Oculto de Markov (HMM) como un ejemplo de sistema probabilístico en el tiempo [Usar]
- Describir las relaciones entre preferencias y funciones de utilidad [Familiarizarse]
- Explicar como funciones de utilidad y razonamiento probabilístico puede ser combinado para tomar decisiones razonables [Evaluar]
Generado por Ernesto Cuadros-Vargas , Sociedad Peruana de Computación-Peru, basado en el modelo de la Computing Curricula de IEEE-CS/ACM