Resumo: Este Documento descreve o Projeto Final de Graduação do aluno João Guilherme Alves Santos, aluno de Engenharia de Computação modalidade AA de 2018, ra 199624. O projeto Final de Graduação do aluno foi orientado pela Prof.ª Drª Maria Cecília Calani Baranauskas, professora Titular da Universidade Estadual de Campinas (UNICAMP), afiliada como colaboradora no Instituto de Computação e co-orientado pelo Prof.º Drº Emanuel Felipe Duarte, Doutor em Ciência da Computação pela Universidade Estadual de Campinas e Yusseli Lizeth Méndez Mendoza, mestre em Ciência da Computação pela Universidade Estadual de Campinas.
O Projeto foi executado no segundo semestre de 2023, através da disciplina MC030 - Projeto Final de Graduação.
Resumo: Este é o relatório do projeto realizado como Trabalho de Conclusão de Curso do Instituto de Computação. O objetivo do trabalho é estudar um novo método de extração de unidades de plot utilizando grandes modelos de linguagem.
A geração automática de textos é um processo desafiador, devido a dificuldades de modelos em manterem a coesão e coerência durante todo o processo de geração. Para auxiliar este processo de geração, muitos trabalhos utilizam unidades de plots, definidas como representações estruturadas controláveis de texto, para auxiliar modelos a manterem a coerência ao longo da história gerada. Devido a sua estrutura padronizada, plots são facilmente manipuláveis, podendo ser utilizados na geração de histórias incoerentes. Estas histórias têm o intuito de servir para o treinamento de modelos de classificação de coerência, algo que também auxilia em garantir a coerência de modelos de geração. Neste trabalho, nós apresentamos um novo método de extração de unidades de plot a partir de histórias coerentes, utilizando grandes modelos de linguagem (Large Language Models, LLMs). Foram estudados o Vicuna-13b, um chatbot open-source treinado a partir do modelo LLaMA que consegue gerar textos com qualidade similar a modelos como o GPT-4, e o WizardLM, uma LLM treinada especificamente para efetuar instruções complexas. A avaliação dos resultados foi feita de forma qualitativa, considerando a formatação e qualidade das informações presentes nos plots, e o método proposto foi comparado com outros métodos convencionais de extração. Os resultados mostram as vantagens de se utilizar LLMs para a extração de plots, e são discutidos desafios atuais para o método e como devem ser abordados no futuro.
Abstract: The present report details the development of a framework for the construction of self- contained pipelines for data processing, using Dask and Argo for the generation of these pipelines. This structure benefits from Dask Kubernetes Operator for adaptive scaling, automatically adjusting according to demand and complexity of tasks. Implemented on the Kubernetes platform, this framework ensures scalability, flexibility, and optimization of resources. The system was designed to cater to a wide range of applications, being especially relevant in areas such as seismic data analysis and ETL (Extraction, Transformation, and Loading) processes. Thanks to the efficient integration between Dasf, Dask, Argo, RapidsAI, and Kubernetes, it is possible to handle workloads of various sizes and intensities, enhancing the processing and analysis of large volumes of data. In a scenario where data production is growing exponentially, the need for robust and scalable solutions like this becomes essential. This project is an important step towards scalable solutions, paving the way for future innovations in the field of large-scale data processing.
Abstract: Credit scoring is a crucial element in the economic sector, relying on an individual's trustworthiness in honoring financial commitments. Institutions providing credit increasingly leverage Artificial Intelligence (AI) for widespread credit assessments. However, the integration of Machine Learning (ML) models raises ethical concerns, particularly regarding biases inherent in AI models. This document explainabity methods based on feature importance and emphasizes the need for transparency in data utilization. The research aims to enhance model explainability and proposes techniques for a clearer understanding of model operations.
The study employs Feature Importance Techniques, like Permutation Importance, in order to study which features impact the model the most. To address data generation anomalies created by the previous method, Novelty Detection Algorithms, including Isolation Forest and Density Forest, are introduced. Additionally, we also explore Counterfactual Explanations as a method to explain ML model outcomes and how to change an specific data to retrieve a desired prediction.
Resumo: Os sistemas tradicionais de monitoramento de trânsito, baseados predominantemente em modelos visuais, podem possuir um alto custo de banda de transmissão e processamento, além de não operarem tão bem durante a noite por conta de uma iluminação reduzida. Este trabalho aborda essa limitação propondo uma abordagem de detecção de veículos baseada na integração de sensores, especificamente microfones e acelerômetros. Foi possível coletar dados reais de uma via e, após tratamentos e extração de features, treinar modelos de aprendizado de máquina capazes de detectar e classificar veículos a partir de suas assinaturas sonoras. A análise dos resultados obtidos aqui busca oferecer informações úteis para aprimorar os sistemas de monitoramento de trânsito. Limitações, incluindo a dependência do cenário específico, condições meteorológicas e diversidade de veículos, indicam oportunidades para futuras melhorias visando uma aplicação mais robusta em diversos ambientes rodoviários.
Resumo: Com a consolidação da extensão vetorial para a ISA RISC-V em 2021, sua aplicação em cargas de trabalho altamente paralelizáveis, como HPC e Machine Learning, torna-se mais desejável. Ainda assim, não há no momento uma implementação aberta desta extensão para o processador Rocket. Com isso, tivemos como objetivo criar uma prova de conceito de unidade vetorial para este processador, servindo de base para futuros desenvolvimentos. A unidade implementada na linguagem Chisel dentro do framework Chipyard suporta algumas das instruções da especificação, a partir das quais caracterizamos seu desempenho atual. A análise teórica indica benefícios a serem extraídos desta abordagem que diferem dos resultados experimentais, devido a questões na implementação que exigem otimização. Futuros esforços devem levar a ganhos significativos de desempenho, além da execução em ambiente de FPGA para estudos de eficiência energética.
Abstract: With the consolidation of the vector extension of the RISC-V ISA in 2021, its application to highly parallelizable workloads such as HPC and Machine Learning becomes mandatory. Still, there is currently no open implementation of this extension for the Rocket processor. With this, we aimed to create a proof of concept of a vector unit for this processor, serving as a basis for future developments. The theoretical analysis indicates benefits to be extracted from this approach that differ from the experimental results, due to implementation issues that require optimization. Future efforts should lead to significant performance gains, in addition to execution in an FPGA environment for energy efficiency studies.
Resumo: O problema de Partição Comum Mínima de Strings (MCSP) é utilizado na comparação de strings com aplicações em biologia computacional. Boas heurísticas têm grande valor para esse problema, já que ele foi provado ser NP-Difícil. Além de apresentar implementações para heurísticas conhecidas da literatura, desenvolvemos uma representação por grafo eficiente para instâncias do MCSP, reduzindo-o a um problema de permutação e permitindo a aplicação de algoritmos de otimização para buscar soluções. O Particle Swarm Optimization (PSO) foi adaptado para esta representação e foi capaz de não só melhorar significativamente o resultado das outras heurísticas utilizadas, mas também encontrar boas soluções de forma independente, mostrando-se uma meta-heurística promissora, principalmente para instâncias com poucas repetições de caracteres. Esse trabalho sugere a utilização da representação por grafo com outros métodos de otimização para o MCSP.
Resumo: Este trabalho é um relatório de um projeto final de graduação, visando o estudo de formas de se analisar sistemas configuráveis, levando em consideração sua complexidade e condições de presença.
Com base nesse trabalho, foi possível realizar uma contribuição ao cenário de análise de sistemas configuráveis no meio acadêmico mundial, cenário este que ainda é novo e possui poucos artigos de estudo publicados. Em vista disso, considera-se que a API construída neste projeto pode ser útil para programadores que busquem analisar sistemas configuráveis.
Resumo: A biologia de sistemas, jovem área interdisciplinar de importância ascendente, dedica-se a estudar sistemas biológicos complexos. A descoberta de novos elementos, processos e fenômenos pela biologia promove uma amplificação da complexidade que está envolvida nos análises realizadas por essa área, o que evidencia a necessidade de criação ou adoção de novas técnicas e ferramentas para tal. Recentemente, devido à intersecção entre os conceitos fundamentais da biologia de sistemas e de redes complexas, a comunidade científica passou a notar o potencial relacionado ao uso de abordagens baseadas nessas redes nos estudos desenvolvidos pela área em questão.
Definido o contexto, desenvolvemos um experimento baseado na tradução sob a ótica de redes complexas de um estudo sobre câncer de tireoide e associado à biologia de sistemas. Essa pesquisa, partindo de uma abordagem tabular de análise e do panorama pouco explorado da regulação gênica por microRNAs, resultou em uma rede de regulação pós-transcricional no contexto de câncer de tireoide. Nosso objetivo consistiu em elucidar a importância da abordagem de redes complexas em pesquisas envolvendo biologia de sistemas. Para tal, fizemos uso das ferramentas miRWalk e Neo4j, além de métricas topológicas de centralidade e detecção de comunidades.
Resumo: Emoções são respostas fisiológicas que podem ser aferidas a partir da captura de dados fisiológicos através de sensores. Neste trabalho coletamos taxas de batimentos cardíacos medida através do sensor óptico de um smartwatch Galaxy Watch com WearOS durante a realização de uma oficina piloto com o sistema Aquarela Virtual. Os dados obtidos foram filtrados e tratados de forma a possibilitar a análise de estados afetivos emparelhando a execução de diferentes fases da oficina piloto com as aferições cardíacas realizadas em diferentes momentos ao longo da experiência dos participantes. O objetivo deste trabalho é a avaliação da capacidade de dispositivos vestíveis comuns para o monitoramento dos dados que possam ser úteis para a predição de estados afetivos continuamente. Esses resultados podem permitir a personalização da interação e novas formas de projeto em sistemas que podem integrar estes dispositivos.
Abstract: Emotions are physiological responses that can be measured through the capture of physiological data via sensors. In this study, we collected heart rate data measured through the optical sensor of a Galaxy Watch with WearOS during the implementation of a pilot workshop with the Aquarela Virtual system. The obtained data were filtered and processed to enable the analysis of affective states by pairing the execution of different phases of the pilot workshop with the cardiac measurements taken at different moments throughout the participants' experience. The aim of this study is to assess the capability of common wearable devices for monitoring data that may be useful for continuously predicting affective states. These findings may enable the customization of interaction and new design approaches in systems that can integrate these devices.
Abstract: Developing task-oriented conversational systems requires substantial annotated data, posing a challenge in Natural Language Processing (NLP). Manual annotation is time-consuming and error-prone, hindering progress for smaller AI teams. This work presents a novel Dialog Annotation Methodology and a ready-to-use adaptable software tool offering automatic annotation. The automatic annotation model is based on a cascade of Machine Learning and Large Language Model annotation to annotate entities and intentions in natural language dialogs.
Resumo: A utilização de vídeos como ferramenta educacional tem se consolidado como uma prática cada vez mais comum, podendo potencializar a assimilação de informações e proporcionando uma experiência de aprendizado mais envolvente e eficaz ao estudante. Soluções na criação de quizzes para apoiar o treinamento e avaliação do conhecimento de estudantes, portanto, limitam o seu potencial ao se utilizarem apenas arquivos textuais para a construção de bases de dados, dado que o conhecimento na atualidade é amplamente disseminado por meio de diversos meios de comunicação distintos. Este trabalho investiga técnicas e ferramentas que auxiliem na transcrição automática de arquivos de vídeo para o formato de texto. Para isso, estudamos a OpenAI Whisper, uma ferramenta open-source responsável pelo reconhecimento de voz e pela conversão do áudio obtido para o formato textual. O modelo permite uma transcrição de voz multilíngue. Conduzimos avaliações experimentais nas línguas inglêsa, Português e espanhol. Adicionalmente, estruturada uma plataforma Web desenhada como um espaço para a comunidade criar, compartilhar e realizar quizzes colaborativamente.
Resumo: Este trabalho apresenta uma abordagem para o treinamento de modelos generativos multilíngues voltados para sistemas de perguntas e respostas (QA). O objetivo é aprimorar a precisão das respostas em diferentes idiomas, utilizando modelos de código aberto. Para isso, foram utilizados datasets em português e espanhol, ajustando os modelos com técnicas específicas de aprendizado de máquina. A pesquisa também aborda a importância de modelos flexíveis e seguros, garantindo maior controle sobre os dados. Os resultados indicam que o uso de modelos multilíngues podem melhorar a acessibilidade e a eficácia em sistemas QA.
Abstract: With the rising demand for high-quality 360° video driven by increasing adoption of virtual reality technology, providing high visual quality for the user is crucial for a better end-user experience. This paper investigates the use of server-side request scheduling in order to mitigate visual degradation, especially tile missing ratio within the user's field of view. We evaluate three scheduling policies - first-in first-out (FIFO), strict priority (SP), and weighted fair queuing (WFQ) - through simulations and measure their effect, comparing benefits and drawbacks. These findings aim to provide insights for the selection of scheduling policies in real-world QUIC applications, contributing to ongoing development of immersive environment solutions.
Resumo: A recente pandemia de Covid-19 escancarou problemas quanto ao acesso da população brasileira à Internet e demonstrou que o processo de inclusão digital no país não está completo. Durante esse período desafiador, tornou-se evidente que a falta de acesso à internet não é apenas uma questão de conveniência, mas sim uma barreira significativa para o acesso a informações essenciais, educação remota, serviços de saúde online e oportunidades de trabalho. A crise revelou desigualdades profundas, onde muitos brasileiros enfrentam dificuldades para participar de atividades cotidianas devido à falta de conectividade. Estudantes sem acesso à Internet enfrentaram obstáculos no aprendizado remoto e professores tiveram problemas para ministrar suas aulas, prejudicando a qualidade do ensino de muitos cidadãos.
Existem disparidades significativas de acesso à internet entre diferentes regiões do Brasil. Enquanto algumas áreas urbanas têm altos índices de conexão, áreas rurais e periféricas enfrentam maior dificuldade de acesso. No Brasil, tal realidade econômica impõe desafios no acesso a equipamentos tecnológicos para uma vasta gama da população, e é nesse contexto que a criação de computadores acessíveis se torna fundamental.
Levando em consideração os fatores supracitados, a construção de computadores pessoais de baixo custo pode ser uma solução relevante e é justamente o objetivo deste projeto. Em recente operação a Receita Federal brasileira confiscou um grande número de TV Boxes que seriam utilizadas para transmissão ilegal de conteúdo. Este trabalho explorou o uso desses equipamentos como base para a construção de computadores de baixo custo. A partir da instalação de um novo sistema operacional e de ajustes necessários, é possível aproveitar o hardware dessas TV Boxes de maneira positiva. Ao conectar esses dispositivos a uma infraestrutura de desktop remoto, abre-se a ainda a possibilidade de melhorar a capacidade de processamento do sistema e construir um dispositivo de baixo custo e que pode ser utilizado para diversos propósitos, dentre eles o pedagógico.
Resumo: Este trabalho explora a capacidade de transformação de uma TV Box baseada no SoC Rockchip RK3229 em um dispositivo de Internet das Coisas (IoT), abordando duas estratégias para contornar o desafio da ausência de pinos expostos por padrão. A primeira envolve a reutilização de conexões para componentes existentes na placa, como LEDs e alguns conectores. Esta abordagem inclui a dessoldagem de componentes e a modificação ou desativação de drivers, além do uso de Device Tree Overlays para converter os pinos disponíveis em GPIOs genéricos. A segunda estratégia emprega a UART de depuração da placa para conectá-la a um microcontrolador e utilizar seus pinos. Para isso foi desenvolvido um driver personalizado que expõe um chip GPIO falso na TV Box, realizando a comunicação entre dispositivos de forma transparente ao usuário. Ambas as abordagens são detalhadas e comparadas, e seus resultados discutidos.
Abstract: This work explores the transformation capability of a TV Box based on the Rockchip RK3229 SoC into an Internet of Things (IoT) device, addressing two strategies to overcome the challenge of the absence of exposed pins by default. The first involves the reuse of connections to existing components on the board, such as LEDs and some connectors. This approach includes the desoldering of components and the modification or disabling of drivers, in addition to the use of Device Tree Overlays to convert the available pins into generic GPIOs. The second strategy employs the board's debug UART to connect it to a microcontroller and use its pins. For this, a custom driver was developed that exposes a fake GPIO chip on the TV Box, facilitating transparent communication between devices to the user. Both approaches are detailed and compared, and their results discussed.
Resumen Este trabajo explora la capacidad de transformación de una TV Box basada en el SoC Rockchip RK3229 en un dispositivo de Internet de las Cosas (IoT), abordando dos estrategias para superar el desafío de la ausencia de pines expuestos por defecto. La primera implica la reutilización de conexiones para componentes existentes en la placa, como LEDs y algunos conectores. Este enfoque incluye la desoldadura de componentes y la modificación o desactivación de drivers, además del uso de Device Tree Overlays para convertir los pines disponibles en GPIOs genéricos. La segunda estrategia emplea la UART de depuración de la placa para conectarla a un microcontrolador y utilizar sus pines. Para ello se desarrolló un driver personalizado que expone un chip GPIO falso en la TV Box, realizando la comunicación entre dispositivos de manera transparente para el usuario. Ambos enfoques se detallan y comparan, y se discuten sus resultados.
Resumo: A recente pandemia de Covid-19 escancarou problemas quanto ao acesso da população brasileira à Internet e demonstrou que o processo de inclusão digital no país não está completo. Durante esse período desafiador, tornou-se evidente que a falta de acesso à internet não é apenas uma questão de conveniência, mas sim uma barreira significativa para o acesso a informações essenciais, educação remota, serviços de saúde online e oportunidades de trabalho. A crise revelou desigualdades profundas, onde muitos brasileiros enfrentam dificuldades para participar de atividades cotidianas devido à falta de conectividade. Estudantes sem acesso à Internet enfrentaram obstáculos no aprendizado remoto e professores tiveram problemas para ministrar suas aulas, prejudicando a qualidade do ensino de muitos cidadãos.
Existem disparidades significativas de acesso à internet entre diferentes regiões do Brasil. Enquanto algumas áreas urbanas têm altos índices de conexão, áreas rurais e periféricas enfrentam maior dificuldade de acesso. No Brasil, tal realidade econômica impõe desafios no acesso a equipamentos tecnológicos para uma vasta gama da população, e é nesse contexto que a criação de computadores acessíveis se torna fundamental.
Levando em consideração os fatores supracitados, a construção de computadores pessoais de baixo custo pode ser uma solução relevante e é justamente o objetivo deste projeto. Em recente operação a Receita Federal brasileira confiscou um grande número de TV Boxes que seriam utilizadas para transmissão ilegal de conteúdo. Este trabalho explorou o uso desses equipamentos como base para a construção de computadores de baixo custo. A partir da instalação de um novo sistema operacional e de ajustes necessários, é possível aproveitar o hardware dessas TV Boxes de maneira positiva. Ao conectar esses dispositivos a uma infraestrutura de desktop remoto, abre-se a ainda a possibilidade de melhorar a capacidade de processamento do sistema e construir um dispositivo de baixo custo e que pode ser utilizado para diversos propósitos, dentre eles o pedagógico.
Resumo: A recente pandemia de Covid-19 escancarou problemas quanto ao acesso da população brasileira à Internet e demonstrou que o processo de inclusão digital no país não está completo. Durante esse período desafiador, tornou-se evidente que a falta de acesso à internet não é apenas uma questão de conveniência, mas sim uma barreira significativa para o acesso a informações essenciais, educação remota, serviços de saúde online e oportunidades de trabalho. A crise revelou desigualdades profundas, onde muitos brasileiros enfrentam dificuldades para participar de atividades cotidianas devido à falta de conectividade. Estudantes sem acesso à Internet enfrentaram obstáculos no aprendizado remoto e professores tiveram problemas para ministrar suas aulas, prejudicando a qualidade do ensino de muitos cidadãos.
Existem disparidades significativas de acesso à internet entre diferentes regiões do Brasil. Enquanto algumas áreas urbanas têm altos índices de conexão, áreas rurais e periféricas enfrentam maior dificuldade de acesso. No Brasil, tal realidade econômica impõe desafios no acesso a equipamentos tecnológicos para uma vasta gama da população, e é nesse contexto que a criação de computadores acessíveis se torna fundamental.
Levando em consideração os fatores supracitados, a construção de computadores pessoais de baixo custo pode ser uma solução relevante e é justamente o objetivo deste projeto. Em recente operação a Receita Federal brasileira confiscou um grande número de TV Boxes que seriam utilizadas para transmissão ilegal de conteúdo. Este trabalho explorou o uso desses equipamentos como base para a construção de computadores de baixo custo. A partir da instalação de um novo sistema operacional e de ajustes necessários, é possível aproveitar o hardware dessas TV Boxes de maneira positiva. Ao conectar esses dispositivos a uma infraestrutura de desktop remoto, abre-se a ainda a possibilidade de melhorar a capacidade de processamento do sistema e construir um dispositivo de baixo custo e que pode ser utilizado para diversos propósitos, dentre eles o pedagógico.
Resumo: A recente pandemia de Covid-19 escancarou problemas quanto ao acesso da população brasileira à Internet e demonstrou que o processo de inclusão digital no país não está completo. Durante esse período desafiador, tornou-se evidente que a falta de acesso à internet não é apenas uma questão de conveniência, mas sim uma barreira significativa para o acesso a informações essenciais, educação remota, serviços de saúde online e oportunidades de trabalho. A crise revelou desigualdades profundas, onde muitos brasileiros enfrentam dificuldades para participar de atividades cotidianas devido à falta de conectividade. Estudantes sem acesso à Internet enfrentaram obstáculos no aprendizado remoto e professores tiveram problemas para ministrar suas aulas, prejudicando a qualidade do ensino de muitos cidadãos.
Existem disparidades significativas de acesso à internet entre diferentes regiões do Brasil. Enquanto algumas áreas urbanas têm altos índices de conexão, áreas rurais e periféricas enfrentam maior dificuldade de acesso. No Brasil, tal realidade econômica impõe desafios no acesso a equipamentos tecnológicos para uma vasta gama da população, e é nesse contexto que a criação de computadores acessíveis se torna fundamental.
Levando em consideração os fatores supracitados, a construção de computadores pessoais de baixo custo pode ser uma solução relevante e é justamente o objetivo deste projeto. Em recente operação a Receita Federal brasileira confiscou um grande número de TV Boxes que seriam utilizadas para transmissão ilegal de conteúdo. Este trabalho explorou o uso desses equipamentos como base para a construção de computadores de baixo custo. A partir da instalação de um novo sistema operacional e de ajustes necessários, é possível aproveitar o hardware dessas TV Boxes de maneira positiva. Ao conectar esses dispositivos a uma infraestrutura de desktop remoto, abre-se a ainda a possibilidade de melhorar a capacidade de processamento do sistema e construir um dispositivo de baixo custo e que pode ser utilizado para diversos propósitos, dentre eles o pedagógico.
Resumo: A recente pandemia de Covid-19 escancarou problemas quanto ao acesso da população brasileira à Internet e demonstrou que o processo de inclusão digital no país não está completo. Durante esse período desafiador, tornou-se evidente que a falta de acesso à internet não é apenas uma questão de conveniência, mas sim uma barreira significativa para o acesso a informações essenciais, educação remota, serviços de saúde online e oportunidades de trabalho. A crise revelou desigualdades profundas, onde muitos brasileiros enfrentam dificuldades para participar de atividades cotidianas devido à falta de conectividade. Estudantes sem acesso à Internet enfrentaram obstáculos no aprendizado remoto e professores tiveram problemas para ministrar suas aulas, prejudicando a qualidade do ensino de muitos cidadãos.
Existem disparidades significativas de acesso à internet entre diferentes regiões do Brasil. Enquanto algumas áreas urbanas têm altos índices de conexão, áreas rurais e periféricas enfrentam maior dificuldade de acesso. No Brasil, tal realidade econômica impõe desafios no acesso a equipamentos tecnológicos para uma vasta gama da população, e é nesse contexto que a criação de computadores acessíveis se torna fundamental.
Levando em consideração os fatores supracitados, a construção de computadores pessoais de baixo custo pode ser uma solução relevante e é justamente o objetivo deste projeto. Em recente operação a Receita Federal brasileira confiscou um grande número de TV Boxes que seriam utilizadas para transmissão ilegal de conteúdo. Este trabalho explorou o uso desses equipamentos como base para a construção de computadores de baixo custo. A partir da instalação de um novo sistema operacional e de ajustes necessários, é possível aproveitar o hardware dessas TV Boxes de maneira positiva. Ao conectar esses dispositivos a uma infraestrutura de desktop remoto, abre-se a ainda a possibilidade de melhorar a capacidade de processamento do sistema e construir um dispositivo de baixo custo e que pode ser utilizado para diversos propósitos, dentre eles o pedagógico.
Resumo: Este trabalho é o relatório final de um projeto final de graduação, cujo objetivo é implementar novas funcionalidades, realizar testes e validar o mecanismo de consenso para blockchain Committeeless Proof-of-Stake (CPoS). Mais especificamente, este trabalho descreve o desenvolvimento que permite a execução do mecanismo de forma distribuída, além da inserção de transações nos blocos da blockchain, e avalia o impacto dessas adições.
A partir de diversos experimentos executados, encontramos um conjunto de parâmetros que viabiliza a execução distribuída do CPoS, assim como a inserção de transações nos blocos. Os resultados utilizando esses parâmetros se mostraram satisfatórios, mas indicaram pontos a serem trabalhados para alcançarmos um melhor desempenho. Em especial, destacamos o grande volume de dados trafegados pela rede, que posa como um grande desafio a ser enfrentado para a utilização do CPoS em cenários mais realistas.
Resumo: Com os avanços recentes da computação quântica, se vê necessário a remodelação nos nossos sistemas atuais de criptografia, saindo de modelos de criptografia clássica e partindo para os modelos conhecidos como pós-quânticos, algoritmos criptográficos resistentes a ataques provenientes tanto de computadores tradicionais quanto de computadores quânticos. Porém estes algoritmos tem uma tendência de serem mais custosos em termos de recursos computacionais para serem implementados em software do que os atuais algoritmos criptográficos, portanto se cria uma necessidade ainda maior de implementações otimizadas para arquiteturas específicas. Neste projeto, além de uma explicação do algoritmo de assinatura pós-quântico PERK, é realizada uma implementação mais bem otimizada para a arquitetura ARMv8.5, e então é comparada com sua implementação de refêrencia, demonstrando seus ganhos de performance em ciclos de execução.
Abstract: RISC-V is a promising ISA and soon will be the architecture of many chips, specially embedded systems. It's necessary to guarantee that applications that run in systems designed with RISC-V will be at the same time secure and cryptographically fast. The NIST Lightweight Cryptography competition selected the finalist: Ascon, a family of cryptography algorithms designed to run in devices with low computational power. This research explores the Ascon family of algorithms on the RISC-V 64-bit architecture, analysing the Ascon permutation and the Ascon-128 algorithm, and whether it's possible to optimize it for riscv64, proposing a new technique regarding the decryption implementation. The implementation developed in this research was benchmarked in the Allwinner D1 chip, a RISC-V 64-bit 1 GHz single-issue CPU supporting the RV64GC ISA, and compared with other implementations. Finally, it's discussed that new microarchitectures, and, the future of the RISC-V ISA with new instructions extensions recently ratified, could improve the performance of the Ascon family of algorithms and other cryptographic algorithms.
Abstract: Infrastructure as Code (IaC) is widely embraced for its ability to facilitate system infrastructure management, ensuring ease of modification and reproducibility. However, the inherent susceptibility of IaC configurations to security vulnerabilities necessitates specialized tools for code analysis. Building upon the work of Rahman et al., who identified 7 security smells present in IaC scripts and introduced SLIC, a static analysis tool for identifying security smells in Puppet scripts, this paper presents SLiTer — a tool designed to detect the same security smells in Terraform files. By doing so, we developed two Rule Engines to serve distinct purposes: the first faithfully translated SLIC rules to establish a baseline, while the second incorporated modifications to enhance accuracy when applied to Terraform configurations. Evaluating SLiTer on 105 Terraform files from 15 directories revealed the most prevalent security smell as "Hard-coded secret," aligning with findings in the original work. SLiTer may prove valuable for practitioners seeking to identify general security smells in Terraform configurations, complementing other tools like Sonar or tfparse for provider-specific issues.
Resumo: Neste estudo, exploramos os potenciais impactos decorrentes da utilização de Feature Flags na manutenção de código. O objetivo central é compreender se a adoção dessas flags está associada a problemas na manutenção do software. Para atingir esse propósito, conduzimos uma avaliação de Code Smells em um repositório open source, seguida por uma análise estática e cruzamento de informações sobre os arquivos que incorporam Feature Flags. A identificação desses arquivos foi realizada por meio de um mapeamento utilizando expressões regulares no repositório analisado.
Os resultados indicam que o conjunto de arquivos contendo Feature Flags exibiu uma maior densidade de Code Smells por arquivo em comparação com aqueles sem flags. Contudo, uma análise qualitativa revelou que nenhum Code Smell foi diretamente causado pelo uso dessas flags. Assim, neste repositório específico, não observamos impactos negativos na manutenção do código decorrentes da utilização de Feature Flags.
Abstract:
Abstract In this study, we explore the potential impacts arising from the use of Feature Flags in code maintenance. The central goal is to understand whether the adoption of these flags is associated with issues in software maintenance. To achieve this purpose, we conducted an evaluation of Code Smells in an open-source repository, followed by a static analysis and cross-referencing of information about files incorporating Feature Flags. The identification of these files was carried out through mapping using regular expressions in the analyzed repository.
The results indicate that the group of files containing Feature Flags exhibited a higher density of Code Smells per file compared to those without flags. However, a qualitative analysis revealed that no Code Smell was directly caused by the use of these flags. Thus, in this specific repository, we did not observe negative impacts on code maintenance resulting from the use of Feature Flags.
Resumen En este estudio, exploramos los posibles impactos derivados del uso de Feature Flags en el mantenimiento de código. El objetivo central es comprender si la adopción de estas flags está asociada con problemas en el mantenimiento del software. Para lograr este propósito, llevamos a cabo una evaluación de Code Smells en un repositorio de código abierto, seguido de un análisis estático y el cruce de información sobre los archivos que incorporan Feature Flags. La identificación de estos archivos se realizó mediante un mapeo utilizando expresiones regulares en el repositorio analizado.
Los resultados indican que el conjunto de archivos que contienen Feature Flags mostró una mayor densidad de Code Smells por archivo en comparación con aquellos sin flags. Sin embargo, un análisis cualitativo reveló que ningún Code Smell fue causado directamente por el uso de estas flags. Así, en este repositorio específico, no observamos impactos negativos en el mantenimiento del código derivados del uso de Feature Flags.
Resumo: Para atender às demandas de aplicações modernas, o OpenMP Cluster visa simplificar a programação em clusters de High Performance Computing, aproveitando sistemas multi-núcleo, multi-nó e aceleradores. Como uma extensão do OpenMP, ele melhora a gestão de tarefas e transferência de dados entre os nós de um cluster utilizando MPI e foi projetado para ser integrado ao LLVM/OpenMP com um plugin para a libomptarget. Este projeto apresenta uma atualização significativa do OpenMP Cluster, adequando-o à nova estrutura de plugins da libomptarget, modernizando sua implementação e proporcionando uma solução escalável para a execução de aplicações HPC em diversos ambientes computacionais.
Resumo: Este trabalho de conclusão de curso tem por objetivo relatar os avanços de desenvolvimento e análise de um jogo baseado em localização por realidade aumentada com a finalidade de potencializar o engajamento e aprendizado dos membros da instituição investigada. Descrevemos os avanços da realidade aumentada e de jogos no âmbito técnico e cultural nos últimos anos e como buscamos combiná-los em um jogo com diversos pontos de interação distribuídos por um espaço físico, apresentando os resultados e desafios encontrados durante o processo de desenvolvimento.
Resumo: Este relatório de projeto final de graduação visa investigar o impacto de redes neurais conhecidas para um problema de classificação de imagens. Quatro redes neurais foram escolhidas para serem avaliadas em um problema de classificação de animais. A partir dessas duas escolhas iniciais, que serão descritas em detalhes no relatório, apresentaremos os métodos desenvolvidos e as bases de dados utilizadas, discutiremos os resultados experimentais encontrados focando em uma análise comparativa de redes neurais no contexto de classificação de imagens de animais.
Resumo: Este estudo investiga a eficácia de modelos de aprendizado de máquina multimodais abertos open-source na resolução de questões de vestibulares e exames nacionais brasileiros, utilizando um subconjunto do conjunto de dados BlueX que combina texto e imagem. O foco é avaliar comparativamente o desempenho de modelos como OpenFlamingo, LLaVA 1.5 e CogVLM, e analisar como estes se alinham com resultados em bases de dados reconhecidas, além de compará-los com modelos puramente textuais no mesmo domínio de questões. Um aspecto chave deste trabalho é um estudo de ablação com o Vicuna, um modelo baseado apenas em texto, para entender o impacto da multimodalidade nos resultados. Este estudo destaca a relevância da integração de informações textuais e visuais em modelos de inteligência artificial (IA), facilitando a compreensão sobre a evolução dos modelos de aprendizado de máquina multimodais, e sublinha a influência da multimodalidade em tarefas de VQA (visual question answering) que envolvem componentes textuais significativas.
Resumo: Este trabalho propõe uma técnica de ordenaçãoo de itens em lista, baseada em MABs (Multi-Armed Bandits), para um inédito aplicativo em dispositivo móvel. O aplicativo consiste em um agregador de eventos universitários que pretende recomendar aqueles que são mais relevantes. O estudo desenvolveu um método de testes baseado em hipóteses relacionadas ao funcionamento do aplicativo, além da aplicação desses testes em dois algoritmos de ordenação. Os algoritmos abordados modelam as listas nos Click Models:Document Based e Cascade Based. Este relatório descreve o algoritmo utilizado e a arquitetura do sistema.
Resumo: Este trabalho busca reproduzir e comparar técnicas de criptografia visual. O estudo procurou entender as peculiaridades de cada metodologia implementada, o que cada técnica proposta na literatura oferece, além de suas vantagens e desvantagens. Para tal tarefa, foram realizados experimentos utilizando metodologias aritméticas, como o uso da operação XOR e da aritmética modular, além de algumas de suas técnicas subvariantes, que visam melhorar ainda mais seus resultados e/ou desempenhos. A eficácia e a eficiência dos algoritmos foram medidas utilizando métricas como PSNR (Peak Signal-to-Noise Ratio), SSIM (Structural Similarity Index Measure) e tempo de execução do código.
Resumo: Este projeto analisou a instanciação de serviços na nuvem, focando no Google Cloud Platform (GCP). Utilizou cálculos de fatorial e Fibonacci para benchmarking em diversas configurações de instância, avaliando desempenho e custo. A pesquisa destacou a importância de selecionar configurações otimizadas para equilibrar eficácia e custo, especialmente com orçamentos limitados. Observou-se que configurações distribuídas melhoram o desempenho, mas aumentam custos, com destaque para a eficiência do Cloud Run.
.
Resumo: Este projeto analisa e compara os desafios e impactos da adoção de sistemas auto-distributivos e serverless computing em ambientes de computação em nuvem, especificamente avaliando o desempenho de sistemas executados no Google Cloud Run em comparação com sistemas implementados em Kubernetes usando o modelo SDS (Self Distributing Systems). Baseando-se em pesquisas anteriores, o estudo busca responder questões sobre diferenças de desempenho, identificar cenários especıficos de vantagem para cada abordagem e avaliar suas caracterısticas em termos de uso de recursos e tempo de resposta. Foram conduzidos testes de desempenho detalhados nos sistemas implementados, submetendo-os a diversas cargas de trabalho e monitorando métricas crıticas. Os resultados fornecem uma visão abrangente das vantagens e desvantagens dos sistemas auto-distributivos e serverless computing em ambientes de computação em nuvem.
Resumo: Tendo em vista os progressos recentes no campo da inteligência artificial, o rápido e crescente desenvolvimento da computação móvel e o irrevogável direito à privacidade, modelos de aprendizado federados têm se tornado peça-chave no desenvolvimento tecnológico atual. O objetivo deste projeto é avaliar uma tratativa de dados ruidosos em modelos de classificação de imagens, utilizando a técnica de aprendizado por reforço.
Resumo: Este é o relatório do projeto realizado como Trabalho de Conclusão de Curso do Instituto de Computação, em parceria com o Prof. Roberto Greco do Instituto de Geociências, cujo objetivo é desenvolver um sistema para coleta de dados de colmeias que serão instalados em escolas.
O sistema permite receber os dados da colmeia via Wi-Fi em um dispositivo móvel, mantendo-se numa distância segura das abelhas. Para este projeto, foi fornecida uma placa desenvolvida pelo Prof. Fabiano Fruett com sensores de temperatura, umidade, som e proximidade. A programação do software da placa para a coleta e transmissão de dados, bem como a implementação de um aplicativo Android para visualização dos resultados são os objetos de estudo deste relatório.
Resumo: Com o crescimento do tamanho e da complexidade dos sistemas atuais, há uma crescente necessidade de otimização e aumento de velocidade de tecnologias que os suportam. Atualmente, há um grande uso de tecnologias de contêiner e computação em nuvem, no entanto, apesar delas possuírem a flexibilidade necessária dos sistemas modernos, ainda há uma grande necessidade de intervenção manual para seu funcionamento. Desse modo, sistemas com auto-distribuição surgem para melhor implementar as arquiteturas, já que esse método possibilita a gestão automática da distribuição dos sistemas e conseguem se adaptar em menor tempo. No entanto, esses sistemas ainda possuem uma dificuldade de implementação devido a sua dificuldade em ser utilizado de modo simples e user-friendly. Assim, surgiu a necessidade de métodos mais tradicionais para fornecer as informações necessárias para a construção desses sistemas de modo mais simplificado e rápido. Mediante uma análise de pontos-chave, foi criado um esquema de criação de sistemas com essa gestão autônoma de modo que seja acessível a futuros usos desde casos mais complexos a casos mais simplificados.
Resumo: Este trabalho visa estudar o processo de análise de risco no mercado de crédito, cujo foco principal é estimar a probabilidade de default de uma pessoa física. Para tanto, o projeto utilizou uma base de dados de crédito dos Estados Unidos para treinar e avaliar o desempenho do modelo.
Com base nesse estudo, entende-se que através de informações pessoais tanto básicas, quanto relacionadas ao comportamento financeiro, é possível gerar um modelo capaz de estimar, de maneira razoável, a probabilidade de uma pessoa física ser inadimplente com o pagamento de um empréstimo. Ademais, através da identificação de quais informações são consideradas importantes para o modelo, é possível avançar no entendimento do comportamento do inadimplente de maneira geral, além de otimizar a coleta de informações utilizadas para esse propósito.
Resumo: Este trabalho busca implementar e comparar diferentes tipos de modelos de neurais e técnicas de treinamento. Para tal, comparou-se a performance de dois modelos, um baseado na arquitetura perceptron e outro baseado no LLM GPT2, ambos treinados de maneira centralizada e federada. Para fazer a avaliação, utilizou-se da métrica de precisão sobre o dataset “agnews”, que contém notícias de diferentes segmentos, como tecnologia e esportes
Com base nessas pesquisas, determinou-se que o tipo de modelo e de técnica de treinamento varia conforme a necessidade. Modelos maiores como o GPT2 tendem a performar melhor do que modelos mais simples, embora sejam muito pesados, devendo assim avaliar a precisão necessária para a aplicação. Caso a privacidade dos dados e a falta de estrutura centralizada seja relevante, o aprendizado federado demonstrou bons resultados, embora exija recursos de rede.
Resumo: Este projeto de fim de curso visa explorar de maneira empírica possibilidades de aplicação de XR em óculos a partir do uso de diferentes arquiteturas e tecnologias para avaliar seus desempenhos no que tange o delay end-to-end de captura de frames a partir do cliente, processamento em névoa e display no cliente. Exploramos diversas opções disponíveis de processamento tanto em CPU quanto em GPU para verificar qual desempenhava melhor quando aplicado em um estudo de caso para ciclismo assistido.
Pudemos ao longo do projeto comparar diversas tecnologias e a sua efetividade na solução do problema. Pudemos também obter métricas de de qualidade de vídeo e de eficiência da solução. A partir dessas informações, é possível estabelecer as necessidades técnicas e os desafios enfrentados ao implementar um sistema de processamento de imagem em borda.
Resumo: Serviços de entrega por drone têm ganhado atenção dos meios acadêmicos, do governo e da indústria, associando-se a uma logística verde e sustentável. Estudos existentes concentram-se principalmente em questões específicas de estratégias anti-colisão em cenários com número limitado de drones, negligenciando o gerenciamento do pouso e decolagem em grandes centros de distribuição, onde há uma grande densidade de drones.
Este projeto classifica e aprimora o Drone Edge Management System (DREMS), que lida com a sequência de pousos e decolagens em áreas de alta densidade. Os resultados destacam a necessidade de uma estratégia de sequenciamento nos centros de distribuição para otimizar a entrega em cenários de alta densidade de drones. Foram desenvolvidas e aplicadas com sucesso novas estratégias que elevam as taxas reais de pousos e decolagens, sem acarretar em um aumento no número total de colisões.
Resumo: O número de pedidos de encomendas realizadas no Brasil por meio de e-commerces têm crescido substancialmente na última década. Nos bastidores, para garantir que um produto seja entregue de maneira rápida e confiável para o cliente, o setor de logística realiza diversas estratégias para que cada etapa da distribuição seja realizada da forma mais eficiente possível. Uma dessas estratégias é a utilização de veículos autônomos responsáveis por otimizar a movimentação de materiais dentro de armazéns. Com isso, surge espaço para diversas análises e propostas de modelagem matemática e de arquitetura do problema, a fim de otimizar a tarefa. Neste trabalho, foram apresentados modelos em grafos de armazéns logísticos com diferentes características e peculiaridades, tais como número de veículos de transporte, número de caixas, pontos de entrega, tamanho da fábrica, distância entre os pontos, massa física de uma encomenda e autonomia de bateria dos veículos. Além disso, foram exploradas diferentes técnicas de otimização para uma delegação de tarefas de movimentação de materiais dentro do armazém, levando em consideração parâmetros como complexidade computacional e disponibilidade de recursos. Ainda foi realizado um estudo sobre a utilização de sistemas distribuídos para entender as estratégias mais adequadas para cada tipo de organização.
Resumo: Este projeto de fim de curso visa explorar de maneira empírica possibilidades de aplicação de XR em óculos a partir do uso de diferentes arquiteturas e tecnologias para avaliar seus desempenhos no que tange o delay end-to-end de captura de frames a partir do cliente, processamento névoa e display no cliente. Exploramos diversas opções disponíveis de processamento tanto em CPU quanto em GPU para verificar qual desempenhava melhor quando aplicado em um estudo de caso para ciclismo assistido. O documento apresenta resultados e análises dos diferentes métodos testados durante o trabalho.
Resumo: Acesso à tensores multi-dimensionais representam uma parcela significativa do tempo de execução de um programa, particularmente em programas científicos nas áreas de High-Performace Computing (HPC) e Machine Learning (ML), onde o tamanho dos tensores é muito grande. Linearizar tensores de modo a torná-los unidimensionais é reconhecidamente uma técnica poderosa para aumentar a localidade de seus elementos na hierarquia da memória, reduzindo assim a latência do seu acesso. Porém, a linearização é uma técnica muito pouco usada historicamente, sendo sua aplicação restrita a implementações manuais de GEMMs. Isso se dá porque, dado o padrão de acesso dos tensores, nem todas as linearizações produzem uma melhoria de desempenho quando realizada. Recentemente, o estado da arte nesta área vem focando em maneiras de generalizar o uso da linearização, como é o caso do GPAT que faz uma análise da viabilidade em algumas aplicações. Com essas novas ferramentas, é possível realizar a aplicação geral da linearização em tempo de compilação, a fim de melhorar a performance do treino de algoritmos de Machine Learning (ML), assim como acelerar a execução de programas em High-Performace Computing (HPC).
Resumo: Este trabalho é o relatório de um Projeto de Conclusão de Curso tratando o problema da paralelização de loops com dependências do tipo do-across. Uma proposta de melhoramento foi levantada e analisada, tendo como base o posicionamento da seção de execução sequencial, e essa proposta foi comparada com o comportamento atual de um compilador, em testes manuais. Os resultados da comparação foram um baixo potencial de otimização, com ganhos médios observados de usando esta estratégia e um desempenho mais que razoável das técnicas atualmente utilizadas para tratar destes tipos de loops.
Abstract: Scientific denialism refers to the discrepancy between information and its effective communication. In this project, our objective is to delve into the field of knowledge visualization by integrating the latest advancements in AI generative models. We aim to create a visually compelling and deterministic representation based on satellite data of Rio de Janeiro's climate over the next 100 years, elucidating its interaction with climate change. While we have achieved promising results in image generation, we still face challenges in constructing a cohesive video that maintains temporal coherence, semantic consistency and realism.
Resumo: Este documento visa expor os conceitos e metodologias relacionados aos tópicos de integração, entrega e implantação contínuos — CI/CD — e aos princípios e atualidades do e-commerce, de modo a argumentar sobre a importância particular e fundamental desse conjunto de práticas para este setor da indústria. Os aspectos de complexidade, dinamicidade e demanda, bem como os desafios enfrentados por aqueles que atuam nessa indústria, também são explicitados e discutidos neste relatório.
Além disso, este texto também tem como finalidade experimental a apresentação dos aspectos e particularidades de oito diferentes ferramentas CI/CD do mercado atual, de modo a elaborar uma análise comparativa entre elas. Essa análise é baseada em critérios que descrevem os requisitos e recursos desejáveis para o desenvolvimento e manutenção não apenas de um software, mas também de uma plataforma de comércio eletrônico de sucesso.
Resumo: APIs (Application Programming Interface – API) oferecem um conjunto de operações que permitem a criação de aplicações e a comunicação entre serviços (sistemas). Os testes em APIs são essenciais para garantir o bom funcionamento e desempenho de aplicações. Neste projeto, os testes de API combinam o Teste Baseado em Modelos (Model Based Testing – MBT) e Testes Dirigidos pelo Comportamento (Behavior Driven Testing – BDT) para automatizar não só a execução, mas também a geração dos casos de teste. O MBT é um método para elaboração de testes que possui como premissa a modelagem do sistema, enquanto BDT possui como premissa a elaboração de casos de teste com base em cenários que representam o comportamento do sistema. Para avaliar a efetividade da combinação desses métodos, foi utilizado como estudo de caso uma API Rest.
Resumo: Este trabalho busca reproduzir e comparar algumas técnicas de transferência de estilo, textura e características de imagens entre classes distintas. O estudo procurou explorar algumas técnicas e métodos de transferência de estilo baseados em conhecidos modelos de aprendizado de máquina não supervisionado para tentar observar formas de se gerar imagens que reproduzam estilos artísticos e texturas, bem como mimetizem classes ou que automatizem a geração de imagens esquemáticas. Para tal tarefa, um modelo baseado em CycleGAN foi implementado utilizando camadas de ResNet18 e bases de dados de alguns pintores e estilos artísticos famosos.
Abstract: This work seeks to reproduce and compare some techniques for transferring style, texture and image characteristics between different classes. The study sought to explore some style transfer techniques and methods based on known unsupervised machine learning models to try to observe ways to generate images that reproduce artistic styles and textures, as well as mimic classes or that automate the generation of schematic images. For this task, a model based on CycleGAN was implemented using layers of ResNet18 and databases of some famous painters and artistic styles.
Resumen Este trabajo busca reproducir y comparar algunas técnicas para transferir características de estilo, textura e imagen entre diferentes clases. El estudio buscó explorar algunas técnicas y métodos de transferencia de estilo basados en modelos conocidos de aprendizaje automático no supervisado para tratar de observar formas de generar imágenes que reproduzcan estilos y texturas artísticas, así como imitar clases o que automaticen la generación de imágenes esquemáticas. Para esta tarea se implementó un modelo basado en CycleGAN utilizando capas de ResNet18 y bases de datos de algunos pintores famosos y estilos artísticos.
Resumo: Neste trabalho, apresentamos uma implementação em software de Elephant, um algoritmo de criptografia leve projetado como um esquema de autenticação encriptada com dados associados, baseado na construção ``encripta-então-autentica'' e com modo de operação contador. Seu principal componente é a permutação , uma generalização da permutação utilizada no cifrador PRESENT (b = 64) para valores maiores que 64. Apresentamos novas técnicas computacionais para melhorar o desempenho da permutação em três versões: b = 160, 176 e 192. Os resultados de nossa implementação em C, no processador M1 Apple (arquitetura ARMv8), mostram uma melhora significativa no desempenho das variantes Dumbo e Jumbo do algoritmo Elephant, ambas alcançando ganhos de até 14 vezes na taxa de encriptação por ciclo, quando comparadas com a implementação de referência. Por fim, notamos que os resultados apresentados neste trabalho também se aplicam para melhorar o desempenho da função de resumo criptogrfico SPONGENT.
Resumo: Deepfakes são mídias sintéticas geradas por redes neurais que podem apresentar conteúdo prejudicial à sociedade, como notícias falsas e fraudes. Considerando a evolução constante de tais tecnologias, é importante desenvolver métodos que possam detectá-las automaticamente e uma das formas mais eficazes de se fazer isso é com modelos de aprendizado de máquina. No entanto, o desempenho de tais detectores depende do contexto dos dados de treinamento e pode diminuir consideravelmente quando aplicados a testes em contextos não vistos durante o treino. Na detecção de deepfakes isso é especialmente desafiador, pois as técnicas de geração estão em constante evolução, implicando que tais modelos apresentem uma queda de desempenho no mundo real. Neste projeto, exploramos o impacto do aumento de dados utilizando modelos de difusão ``image to image'' e Redes Generativas Adversariais (GANs) na capacidade de generalização de detectores de deepfake para domínios não observados no treinamento, realizando testes intra e cross dataset para uma avaliação mais abrangente dos resultados.
Resumo: Este trabalho representa um relatório do projeto realizado em parceria com o LSC, cujo objetivo é desenvolver uma ferramenta capaz de ordenar e filtrar dados sísmicos representados em formato SEG-Y utilizando computação de alto desempenho.
A partir do trabalho desenvolvido, foi possível desenvolver uma linguagem de query, que pode ser utilizada para operar sobre os dados, a partir de seu parsing e conversão para SQL a fim da sua utilização em outra ferramenta desenvolvida em C++ e Rust.
Resumo: Registros médicos, frequentemente em formatos não-estruturados como transcrições de diálogos entre médico e paciente, representam um desafio para análise, interpretação e uso efetivo no ecossistema de saúde. Há um grande desafio na transformação de textos clínicos desestruturados para dados estruturados e semanticamente ricos, como triplas RDF. Isso pode gerar melhor acesso, qualidade e organização para dados em saúde. Este estudo objetiva investigar, desenvolver e experimentar um método para geração de triplas RDF a partir de textos não-estruturados na língua Portuguesa, compostos por informações clínicas relevantes identificadas na transcrição de diálogos entre médico e paciente em consultas clínicas. Nossa proposta explorou e experimentou diversos modelos de linguagem grandes (como GPT-3 e BLOOM) e técnicas de uso dos mesmos na geração de triplas.
Resumo: Este trabalho constitui um relatório abrangente do estudo, da proposta e do desenvolvimento de melhorias na extensão QLattes. A realização deste estudo foi baseada na extensão QLattes originalmente criada por Nabor C. Mendonça, sob a orientação da Professora Juliana F. Borin e com a colaboração conjunta de Mendonça. As melhorias abrangem diversas áreas, incluindo a adição de novas funcionalidades, como a visualização de múltiplos currículos, que permitirá uma análise mais abrangente das realizações acadêmicas dos pesquisadores. Além disso, foi realizada uma refatoração do código, com ênfase na modularização, para melhorar a compreensão e manutenibilidade do sistema. A adoção de tecnologias mais recentes, como o React, permite uma experiência mais fluida e intuitiva para os usuários da QLattes. Por fim, uma nova proposta de design foi desenvolvida, buscando uma interface atrativa e intuitiva, que facilite a filtragem, configuração, análise e visualização dos dados de publicações classificadas pelo Qualis. Com essas melhorias, espera-se fornecer diferentes métricas e perspectivas aos usuários, possibilitando uma análise mais abrangente e precisa da produção científica. O relatório descreverá em detalhes o processo de desenvolvimento, as funcionalidades implementadas e os resultados alcançados com essas melhorias.
Instituto de Computação ::
Universidade Estadual de Campinas
Av. Albert Einstein, 1251 - Cidade Universitária Zeferino Vaz • 13083-852 Campinas, SP - Brasil • Fone: [19] 3521-5838 |