Você está aqui: Página Inicial / Pós-Graduação / Informática / Temas de Pesquisa / Temas de pesquisa 2020.1 / Aprendizagem Profunda para Processamento de Linguagem Natural

Aprendizagem Profunda para Processamento de Linguagem Natural

Prof. Dr. Thales Vieira

Resumo:

Processamento de linguagem natural (PLN) é uma das tecnologias mais importantes da era da informação. Compreender discursos complexos é parte crucial da Inteligência Artificial. Aplicativos da PLN estão em toda parte porque as pessoas se comunicam naturalmente usando uma linguagem: pesquisas na Web, anúncios, e-mails, atendimento ao cliente, tradução de idiomas, relatórios de radiologia, etc. Recentemente, abordagens de aprendizado profundo obtiveram um desempenho muito alto em muitas tarefas diferentes da PNL. Esses modelos geralmente podem ser treinados com um único modelo de ponta a ponta e não necessitam do pipeline usual de engenharia de características, que geralmente é específico para cada tarefa. Porém, em diversas áreas do conhecimento, o uso de PLN ainda é bastante limitado. Neste contexto, são relevantes novas pesquisas focadas no desenvolvimento e implementação de modelos baseados em aprendizagem profunda para aplicações envolvendo classificação de texto, chatbots, reconhecimento de entidades mencionadas, recuperação de informação em dados não estruturados, extração de palavras-chave, etiquetação morfossintática, anotação automática de imagens, sistemas de busca inteligentes, dentre outros. Dentre as inúmeras áreas que podem se beneficiar destas tecnologias, podemos destacar aplicações na área jurídica, em e-commerce, na educação, setores de atendimento automatizado ao cliente, etc.

 

Referencial bibliográfico:

1 - Brownlee, Jason. Deep Learning for Natural Language Processing: Develop Deep Learning Models for your Natural Language Problems. Machine Learning Mastery, 2017.

2 - Young, Tom, et al. "Recent trends in deep learning based natural language processing." IEEE Computational Intelligence Magazine 13.3 (2018): 55-75.

3 - Mikolov, Tomas, et al. "Distributed representations of words and phrases and their compositionality." Advances in neural information processing systems. 2013.

4 - Wang, Y., and J. Zhang. "Keyword extraction from online product reviews based on bi-directional LSTM recurrent neural network." 2017 IEEE International Conference on Industrial Engineering and Engineering Management (IEEM). IEEE, 2017.

5 - Chiu, Jason PC, and Eric Nichols. "Named entity recognition with bidirectional LSTM-CNNs." Transactions of the Association for Computational Linguistics 4 (2016): 357-370.

6 - Devlin, Jacob, et al. "Bert: Pre-training of deep bidirectional transformers for language understanding." arXiv preprint arXiv:1810.04805 (2018).