2.9.9 IS/Procesamiento del Lenguaje Natural
Temas:
Electivo
- Gramaticas determinísticas y estocásticas
- Algoritmos de parseo
- Gramáticas libres de contexto (CFGs) y cuadros de parseo (e.g. Cocke-Younger-Kasami CYK)
- CFGs probabilísticos y ponderados CYK
- Representación del significado / Semántica
- Representación de conocimiento basado en lógica
- Roles semánticos
- Representaciones temporales
- Creencias, deseos e intenciones
- Metodos basados en el corpus
- N-gramas y Modelos ocultos de Markov (HMMs)
- Suavizado y back-off
- Ejemplos de uso: POS etiquetado y morfologia
- Recuperación de la información:
- Modelo de espacio vectorial
- TF & IDF
- Precision y cobertura
- Extracción de información
- Traducción de lenguaje
- Clasificación y categorización de texto:
- Modelo de bolsa de palabras
Objetivos de Aprendizaje (Learning Outcomes):
Elective:
- Define y contrasta gramáticas de tipo estocásticas y determinísticas, dando ejemplos y demostrando como adecuar cada una de ellas [Evaluar]
- Simula, aplica, o implementa algoritmos clásicos y estocásticos para el parseo de un lenguaje natural [Usar]
- Identifica los retos de la representación del significado [Familiarizarse]
- Lista las ventajas de usar corpus estándares. Identifica ejemplos de corpus actuales para una variedad de tareas de PLN [Familiarizarse]
- Identifica técnicas para la recuperación de la información, traducción de lenguajes, y clasificación de textos [Familiarizarse]
Generado por Ernesto Cuadros-Vargas , Sociedad Peruana de Computación-Peru, basado en el modelo de la Computing Curricula de IEEE-CS/ACM