Disciplinas
FUNDAMENTOS DE VISÃO COMPUTACIONAL
Módulo: 1
Carga Horária: 40
Metodologia:
Conceitos e fundamentos de visão computacional, tipos de sensores e aquisição de
imagens, tipos de imagens, resolução espacial, radiométrica, temporal, espectral.
Programação em Python, processamento de imagens usando Python e OpenCV.
Ementa: Introdução à Visão Computacional, Aplicações na indústria, Aquisição de
imagens usando: câmeras, sensores satelitais, multi e hiperespectrais, infravermelho, de
radar, Lidar; quantização e amostragem, Processamento de Imagens em Python, Pré
Processamento de dados. Aplicações: Ajuste de brilho e contraste de imagens médicas,
Compressão de Imagens para Streaming de vídeo, Detecção de Mudanças em Áreas
Urbanas, Fusão de Imagens para efeitos especiais na mídia, Detecção de Objetos em
Vídeos.
Bibliografia:
1. Gonzalez, R. C., & Woods, R. E. (2017). Digital image processing.
2. Forsyth, D. A., & Ponce, J. (2012). Computer vision: a modern approach. Pearson.
3. Szeliski, R. (2010). Computer vision: algorithms and applications. Springer
Science & Business Media
Bibliografia Complementar:
1. Burger, W., & Burge, M. J. (2010). Principles of digital image processing: core
algorithms. Springer Science & Business Media.
2. Dey, S. (2018). Hands-On Image Processing with Python: Expert techniques for
advanced image analysis and effective interpretation of image data. Packt
Publishing Ltd.
3. Dawson-Howe, K. (2014). A practical introduction to computer vision with opencv.
John Wiley & Sons
PROCESSAMENTO DIGITAL DE IMAGENS
Módulo: 1
Carga Horária: 40
Metodologia: Esta disciplina aborda as etapas envolvidas no processamento digital de imagens: préprocessamento e melhora da imagem através de transformações aplicadas aos pixels ou histograma da imagem. Também serão apresentados os filtros no espaço que são usados para melhorar a nitidez da imagem, extração de bordas, suavização da imagem, entre outros.
Ementa: Transformações básicas de intensidade, Ajuste de Histograma, Introdução à Filtragem de imagens no espaço, filtros para suavização e realce de bordas, filtros para remoção de ruído. Uso de ferramentas comuns para edição de imagens. Aplicações: Processamento de imagens médicas, Redução de ruído em imagens de satélite, Filtros usados em redes sociais, Monitoramento da Temperatura Facial (Covid-19), Transferência de estilo usando histogram maching.
Bibliografia:
1. Gonzalez, R. C., & Woods, R. E. (2017). Digital image processing.
2. Forsyth, D. A., & Ponce, J. (2012). Computer vision: a modern approach. Pearson.
3. Szeliski, R. (2010). Computer vision: algorithms and applications. Springer Science & Business Media.
Bibliografia Complementar:
1. Burger, W., & Burge, M. J. (2010). Principles of digital image processing: core algorithms. Springer Science & Business Media.
2. Dey, S. (2018). Hands-On Image Processing with Python: Expert techniques for advanced image analysis and effective interpretation of image data. Packt Publishing Ltd.
3. Dawson-Howe, K. (2014). A practical introduction to computer vision with opencv. John Wiley & Sons
EXTRAÇÃO DE INFORMAÇÃO DE IMAGENS
Módulo: 2
Carga Horária: 40
Metodologia: Esta disciplina aborda técnicas de extração de atributos de imagens. Atributos de forma, cor, textura, contornos, etc. Agrupamento de atributos usando técnicas de aprendizado de máquina não supervisionado. Segmentação de Imagens. Ferramentas e algoritmos para visualização dos atributos extraídos.
Ementa: Introdução a extração de atributos, tipos de atributos, algoritmos de agrupamento, K-Means, Mean-shift, PCA, abordagens para segmentação, limiarização, superpixel, visualização de atributos, t-SNE, embedding projector. Aplicações: Reconhecimento Facial, Recuperação de Imagens, Agrupamento de Fácies Sísmicas, Compressão de Vídeos.
Bibliografia:
1. Gonzalez, R. C., & Woods, R. E. (2017). Digital image processing.
2. Bishop, C. M. (2006). Pattern recognition and machine learning. Springer.
3. Szeliski, R. (2010). Computer vision: algorithms and applications. Springer Science & Business Media.
Bibliografia Complementar:
1. Burger, W., & Burge, M. J. (2010). Principles of digital image processing: core algorithms. Springer Science & Business Media.
2. Dey, S. (2018). Hands-On Image Processing with Python: Expert techniques for advanced image analysis and effective interpretation of image data. Packt Publishing Ltd.
3. Dawson-Howe, K. (2014). A practical introduction to computer vision with opencv. John Wiley & Sons
TÉCNICAS TRADICIONAIS DE CLASSIFICAÇÃO DE IMAGENS
Módulo: 2
Carga Horária: 40
Metodologia: Esta disciplina apresenta as técnicas e ferramentas de classificação de imagens usa do algoritmos de aprendizado de máquina supervisionado. Técnicas de normalização de dados. Métricas de desempenho.
Ementa: Introdução a classificação de imagens usando aprendizado de máquina supervisionado, MLP, SVM, Random Forest, Regressão Logística, Normalização de dados, Mín-Máx, Padrão, Matriz de confusão, acurácia, precisão, recall, f1-score, índie kappa. Aplicações: Detecção de doenças em imagens médicas, Análise de Sentimentos em imagens faciais, Detecção de anomalias em cultivos de café, Reconhecimento de caracteres em imagens de placas de carro.
Bibliografia:
1. Bishop, C. M. (2006). Pattern recognition and machine learning. Springer.
2. López, A. M., Imiya, A., Pajdla, T., & Álvarez, J. M. (Eds.). (2017). Computer vision in vehicle technology: Land, sea, and air. John Wiley & Sons.
3. Friedman, J., Hastie, T., & Tibshirani, R. (2001). The elements of statistical learning (Vol. 1, No. 10). New York: Springer series in statistics.
Bibliografia Complementar:
1. Müller, A. C., & Guido, S. (2016). Introduction to machine learning with Python: a guide for data scientists. " O'Reilly Media, Inc.".
2. Murphy, K. P. (2012). Machine learning: a probabilistic perspective. MIT press.
3. Goodfellow, I., Bengio, Y., Courville, A., & Bengio, Y. (2016). Deep learning (Vol. 1, No. 2). Cambridge: MIT press.
DETECÇÃO DE OBJETOS EM IMAGENS E VÍDEO
Módulo: 3
Carga Horária: 40
Metodologia: Durante o transcurso desta disciplina serão introduzidos conceitos sobre detecção, rastreamento, e reconhecimento de objetos em imagens e vídeos. Serão apresentadas técnicas tradicionais e avançadas com aplicações práticas em diferentes áreas.
Ementa: Introdução a detecção de objetos, métodos tradicionais, template matching, Viola-Jones, técnicas para rastreamento, rastreamento frame a frame e temporal, Modelos mais usados: YOLO, RetinaNet, baseados em RCNN, Detectron2. Aplicações: Gerenciamento de trânsito, Carros autônomos, Distanciamento Social entre pedestres, Análise de comportamento social, Planejamento de estoque, Contagem de animais.
Bibliografia:
1. Lillesand, T., Kiefer, R. W., & Chipman, J. (2015). Remote sensing and image interpretation. John Wiley & Sons.
2. Jiang, X., Hadid, A., Pang, Y., Granger, E., & Feng, X. (Eds.). (2019). Deep Learning in Object Detection and Recognition. Springer.
3. Atienza, R. (2020). Advanced Deep Learning with TensorFlow 2 and Keras: Apply DL, GANs, VAEs, deep RL, unsupervised learning, object detection and segmentation, and more. Packt Publishing Ltd.
Bibliografia Complementar:
1. Cyganek, B. (2013). Object detection and recognition in digital images: theory and practice. John Wiley & Sons.
2. Chang, Y. L., Anagaw, A., Chang, L., Wang, Y. C., Hsiao, C. Y., & Lee, W. H. (2019). Ship detection based on YOLOv2 for SAR imagery. Remote Sensing, 11(7), 786.
3. Ciaparrone, G., Sánchez, F. L., Tabik, S., Troiano, L., Tagliaferri, R., & Herrera, F. (2020). Deep learning in video multi-object tracking: A survey. Neurocomputing, 381, 61-88.
TÉCNICAS MODERNAS DE CLASSIFICAÇÃO DE IMAGENS
Módulo: 3
Carga Horária: 40
Metodologia:
Esta disciplina introduz técnicas do estado da arte para classificação de imagens. São
abordadas as técnicas de aprendizado profundo focadas no tratamento de imagens e
vídeo. São apresentadas as principais arquiteturas de redes convolutivas e aplicações
relevantes, assim como principais Frameworks.
Ementa: Introdução a Deep Learning, Redes Convolutivas, Regularizadores, Conexões
residuais, Dense blocks, Métricas de avaliação, Ferramentas para anotação de dados,
Redes Convolutivas mais usadas: LeNet, AlexNet, GoogleNet, ResNet, DenseNet, etc.
Frameworks: Tensorflow, Keras, Pytorch, Transfer Learning. Aplicações: Diagnóstico de
Covid-19 usando imagens de raios-x, Deteção de fraude em sistemas biométricos,
Classificação de Imagens de Satélite, Qualidade de produtos agrícolas.
Bibliografia:
1
1.Goodfellow, I., Bengio, Y., Courville, A., & Bengio, Y. (2016). Deep learning (Vol.
1, No. 2). Cambridge: MIT press.
2. Ketkar, N., & Santana, E. (2017). Deep learning with python (Vol. 1). Berkeley, CA:
Apress.
3. Aggarwal, C. C. (2018). Neural networks and deep learning. Springer, 10, 978-3.
Bibliografia Complementar:
1. Buduma, N., & Locascio, N. (2017). Fundamentals of deep learning: Designing
next-generation machine intelligence algorithms. " O'Reilly Media, Inc.".
2. Howard, J., & Gugger, S. (2020). Deep Learning for Coders with fastai and
PyTorch. O'Reilly Media.
3. Géron, A. (2019). Hands-on machine learning with Scikit-Learn, Keras, and
TensorFlow: Concepts, tools, and techniques to build intelligent systems. O'Reilly
Media
ANÁLISE DO CONTEÚDO SEMÂNTICO DAS IMAGENS
Módulo: 4
Carga Horária: 40
Metodologia: Esta disciplina apresenta os conceitos básicos sobre segmentação semântica e principais aplicações. São apresentadas as principais abordagens e arquiteturas de redes neurais profundas com aplicações práticas em diferentes áreas.
Ementa: Introdução a segmentação semântica, convolução transposta, convolução atrous, redes Fully Convolutional (FCN), funções de custo, skip connections, weighted loss, focal loss, Modelos mais usados: U-Net, DeepLab, Unet++. Aplicações: Detecção de Derramamento de Óleo, Diagnóstico de Tumores em Imagens médicas, Segmentação de dutos, Detecção de desmatamento e queimadas, Segmentação de pedestres e carros.
Bibliografia:
1. Goodfellow, I., Bengio, Y., Courville, A., & Bengio, Y. (2016). Deep learning (Vol.1, No. 2). Cambridge: MIT press.
2. Lu, L., Zheng, Y., Carneiro, G., & Yang, L. (2017). Deep learning and convolutional neural networks for medical image computing. Advances in Computer Vision and Pattern Recognition, 10, 978-3.
3. Atienza, R. (2020). Advanced Deep Learning with TensorFlow 2 and Keras: Apply DL, GANs, VAEs, deep RL, unsupervised learning, object detection and segmentation, and more. Packt Publishing Ltd.
Bibliografia Complementar:
1. Géron, A. (2019). Hands-on machine learning with Scikit-Learn, Keras, and TensorFlow: Concepts, tools, and techniques to build intelligent systems. O'Reilly Media.
2. Hao, S., Zhou, Y., & Guo, Y. (2020). A brief survey on semantic segmentation with deep learning. Neurocomputing, 406, 302-321.
3. Ronneberger, O., Fischer, P., & Brox, T. (2015, October). U-net: Convolutional networks for biomedical image segmentation. In International Conference on Medical image computing and computer-assisted intervention (pp. 234-241). Springer, Cham.
MONOGRAFIA
Módulo: 4
Carga Horária: 0
Trabalho de conclusão de curso.
PROJETO DE VISÃO COMPUTACIONAL
Módulo: 4
Carga Horária: 40
Metodologia: Nessa disciplina os alunos estarão envolvidos com o plano de orientação de desenvolvimento de uma monografia com foco num sistema de visão computacional voltado para uma aplicação real que, de preferência, seja do interesse da empresa na qual o aluno trabalha. Através de cases e em seguida de seus próprios temas para monografia, os alunos terão a oportunidade de vivenciar todo o processo de projeto que inclui: a pesquisa bibliográfica, modelagem, desenvolvimento usando técnicas e ambientes vistos no curso, a produção de artigo e apresentação oral. O projeto, com tema na área de interesse do aluno ou da empresa na qual o aluno trabalha, receberá supervisão e orientação dos professores do programa. Ao final, o aluno deverá elaborar e entregar uma monografia sobre o projeto que será considerada a monografia final do curso. Além disso, o aluno terá que apresentar uma palestra referente a seu projeto.
Ementa: Conceitos de Decisão, Problemas: Caracterização e Desafios. Inovação: Ciência e Tecnologia. Estratégia de desenvolvimento de projeto: pesquisa bibliográfica, modelagem da solução, desenvolvimento usando técnicas de visão computacional, técnicas para a produção de uma monografia e para apresentação oral. Áreas de aplicação: Saúde e Medicina, Óleo & Gás, Transporte, Biometría, Logística, Videovigilância, Marketing, Agricultura, Finanças, Comércio, Meio Ambiente, Meteorologia, Geologia, Mídia, etc.
Bibliografia:
1. Howse, J., Joshi, P., & Beyeler, M. (2016). Opencv: computer vision projects with python. Packt Publishing Ltd.
2. Géron, A. (2019). Hands-on machine learning with Scikit-Learn, Keras, and TensorFlow: Concepts, tools, and techniques to build intelligent systems. O'Reilly Media.
3. Schwalbe, K. (2015). Information technology project management. Cengage Learning.
Bibliografia Complementar:
1. Grigorev, A., Rajalingappaa Shanmugamani, Boschetti, A., Massaron, L., & Thakur, A. (2018). TensorFlow Deep Learning Projects: 10 real-world projects on computer vision, machine translation, chatbots, and reinforcement learning. Packt Publishing.
2. Gad, A. F., Gad, A. F., & John, S. (2018). Practical computer vision applications using deep learning with CNNs. Apress.
3. Sandipan D. (2020). Python Image Processing Cookbook: Over 60 recipes to help you perform complex image processing and computer vision tasks with ease. Packt Publishing.
SÍNTESE DE IMAGENS
Módulo: 4
Carga Horária: 40
Metodologia:
Esta disciplina introduz os conceitos básicos sobre modelos generativos, transferência de estilo entre imagens, e técnicas de remasterização de imagens e vídeos usando Deep Learning. Adicionalmente, o estudante aprenderá a utilizar os principais frameworks e bibliotecas de deep learning desenvolvendo uma aplicação prática.
Ementa: Síntese de imagens, GANs, transferência de estilo, super resolução. Aplicações: Remasterização de cor e resolução de filmes e fotos antigas, Filtros para redes sociais, Envelhecimento ou rejuvenescimento de atores, Remoção de oclusão em rostos, Criação de arte.
Bibliografia:
1. Foster, D. (2019). Generative deep learning: teaching machines to paint, write, compose, and play. O'Reilly Media.
2. Goodfellow, I., Bengio, Y., Courville, A., & Bengio, Y. (2016). Deep learning (Vol. 1, No. 2). Cambridge: MIT press.
3. Ahirwar, K. (2019). Generative Adversarial Networks Projects: Build Nextgeneration Generative Models Using TensorFlow and Keras. Packt Publishing Ltd.
4. Fingas, M. (2016). Oil spill science and technology. Gulf professional publishing.
Bibliografia Complementar:
1. Johnson, J., Alahi, A., & Fei-Fei, L. (2016, October). Perceptual losses for realtime style transfer and super-resolution. In European conference on computer vision (pp. 694-711). Springer, Cham.
2. Wang, Z., Chen, J., & Hoi, S. C. (2020). Deep learning for image super-resolution: A survey. IEEE transactions on pattern analysis and machine intelligence.
3. Zhang, H., Goodfellow, I., Metaxas, D., & Odena, A. (2019, May). Self-attention generative adversarial networks. In International conference on machine learning (pp. 7354-7363). PMLR.