4.25.2.8 Procesamiento del Lenguaje Natural (12 horas) [Habilidades a,j]

Referencias Bibliográficas: [Nilsson, 2001,Russell and Norvig, 2003,Ponce-Gallegos et al., 2014] Temas
  1. Gramaticas determinísticas y estocásticas
  2. Algoritmos de parseo
    1. Gramáticas libres de contexto (CFGs) y cuadros de parseo (e.g. Cocke-Younger-Kasami CYK)
    2. CFGs probabilísticos y ponderados CYK
  3. Representación del significado / Semántica
    1. Representación de conocimiento basado en lógica
    2. Roles semánticos
    3. Representaciones temporales
    4. Creencias, deseos e intenciones
  4. Metodos basados en el corpus
  5. N-gramas y Modelos ocultos de Markov (HMMs)
  6. Suavizado y back-off
  7. Ejemplos de uso: POS etiquetado y morfologia
  8. Recuperación de la información:
    1. Modelo de espacio vectorial
      1. TF & IDF
    2. Precision y cobertura
  9. Extracción de información
  10. Traducción de lenguaje
  11. Clasificación y categorización de texto:
    1. Modelo de bolsa de palabras
Objetivos de Aprendizaje
  1. Define y contrasta gramáticas de tipo estocásticas y determinísticas, dando ejemplos y demostrando como adecuar cada una de ellas [Usage]
  2. Simula, aplica, o implementa algoritmos clásicos y estocásticos para el parseo de un lenguaje natural [Usage]
  3. Identifica los retos de la representación del significado [Usage]
  4. Lista las ventajas de usar corpus estándares. Identifica ejemplos de corpus actuales para una variedad de tareas de PLN [Usage]
  5. Identifica técnicas para la recuperación de la información, traducción de lenguajes, y clasificación de textos [Usage]

Generado por Ernesto Cuadros-Vargas , Sociedad Peruana de Computación-Peru, basado en el modelo de la Computing Curricula de IEEE-CS/ACM