IA368 - Tópicos em Engenharia de Computação V
Turma: HH -
Período: 2/2025 -
Tipo Período: 2o. período letivo -
Disciplina: 4 créditos.
Tema: Aprendizado Profundo Avançado: LLMs e Agentes Inteligentes na Prática
Ementa: Este curso aborda redes neurais aplicadas ao Processamento de Linguagem Natural (PLN), com ênfase nas abordagens modernas baseadas em grandes modelos de linguagem (LLMs). Na primeira parte, são apresentados os fundamentos das representações vetoriais de texto e das arquiteturas avançadas baseadas em transformers e mecanismos de atenção, incluindo implementações práticas de treinamento eficiente dessas arquiteturas. Na segunda parte, o curso foca em técnicas de pós-treinamento, ajuste fino e uso prático de modelos pré-treinados por meio da interação com APIs. Técnicas como ReAct, RAG e frameworks para desenvolvimento de agentes e sistemas multiagentes serão exploradas na prática. Um diferencial deste curso é o uso intensivo de programação assistida por inteligência artificial, explorando ferramentas modernas para acelerar o desenvolvimento, depuração e experimentação com modelos. Este curso assume que o aluno já possui conhecimentos de aprendizado de máquina, tais como preparação dos dados, ajuste de hiperparâmetros, treinamento e avaliação de modelos. A implementação prática será feita com Python e PyTorch, exigindo familiaridade com programação matricial e conceitos de orientação a objeto. Ao final, os alunos desenvolverão um projeto prático que integra os principais conceitos e ferramentas aprendidos.
Conteúdo Programático:
Representações de texto com bag-of-words e word embeddings. Modelos de linguagem neurais e arquiteturas seq2seq. Mecanismos de atenção e o modelo Transformer. Pré-treinamento e ajuste-fino de modelos como BERT. Treinamento eficiente do Transformer com Máscara causal. Estratégias de inferência pós-treino. Ajuste-fino e instruction tunning de LLMs. Estratégias avançadas de prompts como ReAct (reasoning + acting). Fundamentos de engenharia de prompt e uso de LLMs em tarefas de RAG (Retrieval-Augmented Generation). Agentes: reasoning, memory, and planning. Multi-agentes. Desenvolvimento de projeto final com aplicação prática dos conceitos.
Bibliografia: Bengio, Yoshua, et al. "A neural probabilistic language model." Journal of machine learning research 3.Feb (2003): 1137-1155.
LeCun, Yann, Yoshua Bengio, and Geoffrey Hinton. "Deep learning." nature 521.7553 (2015): 436.;
Vaswani, Ashish, et al. "Attention is all you need." Advances in neural information processing systems. 2017.;
Kenton, Jacob Devlin Ming-Wei Chang, and Lee Kristina Toutanova. "Bert: Pre-training of deep bidirectional transformers for language understanding." Proceedings of naacL-HLT. Vol. 1. No. 2. 2019.
Radford, Alec, et al. "Language models are unsupervised multitask learners." OpenAI blog 1.8 (2019): 9.
Brown, Tom, et al. "Language models are few-shot learners." Advances in neural information processing systems 33 (2020): 1877-1901.
Yao, Shunyu, et al. "React: Synergizing reasoning and acting in language models." International Conference on Learning Representations (ICLR). 2023.
GAO, Yunfan et al. Retrieval-augmented generation for large language models: A survey. arXiv preprint arXiv:2312.10997, v. 2, p. 1, 2023.
LIANG, Tian et al. Encouraging divergent thinking in large language models through multi-agent debate. arXiv preprint arXiv:2305.19118, 2023.
Forma Avaliação: Leitura semanal de artigos, projetos práticos semanais, testes em aula, entrevista individual e projeto final.
Ofertar para Graduação:
Não
Aceita Estudante Especial:
Sim
Número de Alunos Total:
de 5 até 30