PROGRAMA DE PÓS-GRADUAÇÃO EM ESTATÍSTICA E EXPERIMENTAÇÃO AGROPECUÁRIA Versão em Inglês Versão em Espanhol Versão em Francês

Telefone/Ramal: (35) 3829-5195/5195
E-mail: posgrad_si.icet@ufla.br
Dissertações/Teses

Acesse a Biblioteca Digital de Teses e Dissertações da UFLA

2026
Descrição
  • ALI WILLIAM CANAZA CAYO
  • ESTIMAÇÃO BAYESIANA DOS PARÂMETROS GENÉTICOS DA CURVA DE CRESCIMENTO DE LHAMAS

  • Data: 16/04/2026
  • Mostrar Resumo
  • Nesta pesquisa, abordou-se a modelagem bayesiana aplicada à estimação de parâmetros genéticos associados às curvas de crescimento de lhamas, e com esse intuito, o trabalho está estruturado em duas partes: a primeira corresponde ao referencial teórico, no qual são apresentados os fundamentos dos modelos não lineares de crescimento e da inferência bayesiana; e a segunda é composta por dois artigos científicos. No primeiro artigo foram estimados parâmetros dos modelos não lineares para curvas de crescimento por meio de procedimentos frequentistas e bayesianos. Os resultados desta pesquisa destacam o potencial da aplicação de funções não lineares para modelar a relação peso-idade em lhamas por meio de uma abordagem bayesiana. O segundo artigo contempla o ajuste das curvas de crescimento e a estimação conjunta dos parâmetros genéticos, bem como a comparação entre diferentes funções não lineares por meio de um modelo hierárquico bayesiano. Os resultados revelam que o uso de modelos hierárquicos bayesianos com o algoritmo NUTS/brms é computacionalmente eficiente e estatisticamente eficaz para a análise de curvas de crescimento em lhamas, evidenciando elevado potencial genético para a seleção do peso adulto, em contraste com a baixa herdabilidade dos parâmetros relacionados ao formato da curva. Além disso, o estudo representa a primeira aplicação do algoritmo NUTS na modelagem do crescimento de camelídeos sul-americanos. Para esse fim, em ambos os estudos foram analisados registros mensais de peso, do nascimento até um ano de idade, provenientes de lhamas machos e dos tipos K’ara e Ch’accu, oriundas da Estação Experimental de Quimsachata (Peru). De modo geral, os achados deste estudo reforçam o potencial da modelagem bayesiana hierárquica como ferramenta metodológica útil para a compreensão do crescimento e para o aprimoramento de estratégias de seleção genética em lhamas, contribuindo tanto para o avanço científico quanto para o fortalecimento de sistemas produtivos baseados nessa espécie.

  • WÉLSON ANTÔNIO DE OLIVEIRA
  • MODELAGEM DE PROCESSOS PONTUAIS DE COX LOG-GAUSSIANOS: UMA ABORDAGEM LOCAL E GLOBAL COM COVARIÁVEIS PARA ANÁLISE ESPAÇO-TEMPORAL

  • Data: 01/04/2026
  • Mostrar Resumo
  • Processos pontuais espaço-temporais (PPET) são modelos estocásticos usados para descrever a
    distribuição de eventos discretos no espaço e no tempo. O modelo mais simples é o processo de
    Poisson, que assume uma intensidade constante, mas é pouco realista para dados reais, que frequentemente
    apresentam variação de intensidade. Processos de Cox espaço-temporais, como
    os processos de Cox log-gaussianos (LGCP), permitem modelar intensidades variáveis através
    de campos aleatórios gaussianos, considerando dependência espaço-temporal. Contudo, a
    intratabilidade da função log-verossimilhança para esses modelos apresentam desafios computacionais.
    Métodos como Cadeias de Markov Monte Carlo (MCMC) e Aproximação Laplace
    Alinhada Integrada (INLA) são comumente usados, mas podem ser computacionalmente caros.
    Alternativamente, a estimativa de efeitos de segunda ordem por mínimos contrastes oferece uma
    solução mais eficiente e de menor custo computacional. Extensões do modelo LGCP consideram
    variações locais de intensidade, permitindo a captura de padrões de dependência espacial
    e temporal mais complexos. A abordagem local pode ser particularmente útil em cenários
    onde parâmetros como o alcance espacial variam entre diferentes regiões, como em modelos de
    incêndios. Contudo, ainda há limitações que impossibilitam a inclusão de covariáveis. Este trabalho
    propõe duas abordagens inéditas para a estimação do modelo LGCP utilizando incluindo
    covariáveis e utilizando da programação de modelos aditivos generalizados (GAMs). Na primeira,
    a tratabilidade do campo aleatório gaussiano se deu a partir da estimativa dos parâmetros
    de segunda ordem pelo método de mínimos contrastes aproximados pela função de correlação
    por pares. Na segunda, aproximou-se o Campo aleatório gaussiano (Gaussian Random Fields-
    GRF) por combinações lineares de funções básicas espaço-temporais. Ambas as abordagens visam
    melhorar a precisão da modelagem de PPET, tornando-as mais adequadas a cenários com
    alta complexidade de dados e variabilidade espaço-temporal.

  • LARYSSA RIBEIRO CALCAGNOTO
  • EXTENSÕES DA ANÁLISE DISCRIMINANTE EM DADOS ESPACIAIS: SIMULAÇÃO E APLICAÇÃO EM CLASSIFICAÇÃO DE CAFÉS
  • Orientador : MARCELO ANGELO CIRILLO
  • Data: 20/03/2026
  • Mostrar Resumo
  • Aanálise discriminante é uma ferramenta estatística amplamente utilizada para classificar ob servações provenientes de diferentes populações. Entretanto, a presença de dependência espa cial nos dados, comum em amostras georreferenciadas de produtos agrícolas, pode comprome ter o desempenho dos métodos tradicionais. Esta tese avalia técnicas de análise discriminante linear e quadrática, incluindo versões esparsas, robustas e espaciais, e propõe abordagens que incorporam a estrutura de dependência espacial por meio de modelos geoestatísticos, com o objetivo de aprimorar a discriminação da qualidade de cafés especiais produzidos nas microrre giões da Serra da Canastra e da Serra da Mantiqueira. Foram realizados estudos de simulação de Monte Carlo e uma aplicação empírica a dados reais, permitindo a comparação dos méto dos em termos de acurácia, precisão, sensibilidade e especificidade. Os resultados indicaram desempenho superior dos modelos que incorporam a dependência espacial, com destaque para o modelo espacial quadrático (SPQDA), que apresentou melhor equilíbrio entre os erros de classificação, especialmente em cenários de maior complexidade espacial. Além da contribui ção metodológica, foi desenvolvido um aplicativo interativo em Shiny para facilitar a aplicação prática das técnicas, ampliando o acesso de pesquisadores e profissionais do setor cafeeiro às metodologias propostas. A abordagem desenvolvida constitui uma ferramenta robusta para a análise de dados sensoriais com dependência espacial, com potencial de aplicação em outros contextos agroambientais e georreferenciados

  • MÍRIAN ROSA
  • PERDA ACUMULADA DE NITROGÊNIO EM FERTILIZANTES APLICADOS AO CAFEEIRO: MODELO VON BERTALANFFY COM ABORDAGEM BAYESIANA E GAMLSS
  • Orientador : TALES JESUS FERNANDES
  • Data: 05/03/2026
  • Mostrar Resumo
  • O Brasil ocupa posição de destaque no cenário mundial da cafeicultura, sendo o maior exportador e o segundo maior consumidor da bebida. Para garantir elevados níveis produtivos, é essencial a aplicação de fertilizantes no solo. A ureia, embora seja um fertilizante amplamente utilizado, apresenta uma desvantagem agronômica relevante: a elevada perda de nitrogênio por volatilização quando aplicada superficialmente e sob condições climáticas desfavoráveis. Nesse contexto, o objetivo geral deste trabalho foi aplicar as metodologias estatísticas de inferência bayesiana e GAMLSS para modelar a perda acumulada de nitrogênio em fertilizantes aplicados ao cafeeiro. A primeira aplicação proposta neste trabalho constitui em comparar o desempenho de diferentes fontes de nitrogênio aplicadas em cafeeiros em termos de perda de nitrogênio devido à volatilização de amônia, utilizando o modelo não linear de von Bertalanffy com inferência bayesiana. A segunda aplicação teve como objetivo estimar centis por meio da modelagem GAMLSS e utilizá-los na construção de curvas de referência para a perda acumulada de nitrogênio por volatilização da amônia. Os resultados evidenciam que as abordagens adotadas possibilitaram modelar adequadamente a dinâmica não linear da perda acumulada de nitrogênio, além de gerar estimativas informativas para fins agronômicos e de tomada de decisão. Assim, as metodologias empregadas mostraram-se adequadas para a avaliação da perda acumulada de nitrogênio proveniente de fertilizantes aplicados ao cafeeiro.

  • EDILENE CRISTINA PEDROSO AZARIAS
  • Análise bayesiana de modelos não lineares no estudo da cinética de herbicidas

  • Data: 26/02/2026
  • Mostrar Resumo
  • O setor agropecuário demanda atenção devido à sua suscetibilidade a diversas formas de interferências, dentre elas destacam-se as plantas daninhas. Essas plantas competem com as culturas por água, nutrientes, luz, espaço, além de hospedarem patógenos. Um dos métodos empregados para combatê-las é com o uso de herbicidas e a relação entre dose de herbicida e a resposta pode ser descrita por modelos de regressão não linear. Nesta tese, foram desenvolvidos três artigos com o objetivo de analisar a relação entre dose e resposta de herbicidas aplicados em plantas daninhas do gênero Amaranthus, abordando a estimação dos parâmetros de modelos não lineares utilizando inferência bayesiana. No primeiro artigo, foram ajustados os modelos não lineares de Groot, Weibull e logístico por meio da inferência bayesiana, utilizando prioris de máxima entropia. Essa abordagem orienta a escolha das distribuições a priori de forma a maximizar a incerteza e na obtenção estimativas menos tendenciosas. Para a obtenção das distribuições a posteriori, empregou-se o método de Monte Carlo via Cadeias de Markov (MCMC), utilizando os algoritmos de amostragem de Gibbs e Metropolis-Hastings. A seleção do modelo que melhor representou os dados foi realizada com base no Critério de Informação da deviância (DIC) e no Critério de Densidade Preditiva Ordenada (CPO). No segundo artigo, partiu-se do princípio de que a suposição de normalidade nem sempre reflete o comportamento real dos dados, que muitas vezes não são simétricos. Em especial, variáveis observadas em estudos de dose-resposta com herbicidas apresentam apenas valores positivos. Como principal contribuição desse estudo, ajustou-se o modelo logístico de Streibing comparando quatro distribuições para a função de verossimilhança: normal, Weibull, gama e exponencial, sendo as três últimas mais apropriadas para modelar variáveis contínuas e positivas. No terceiro artigo, o modelo logístico de Streibing foi ajustado a novos dados, e foram comparadas as funções de verossimilhança com distribuições normal e Student-t, sendo esta última caracterizada por possuir caudas mais pesadas. Os resultados desta tese mostram que a metodologia bayesiana aplicada a modelos não lineares, associada ao uso de prioris de máxima entropia bem como a alteração das distribuições de verossimilhança, mostrou-se uma alternativa eficiente na análise de dados de dose-resposta dos herbicidas, além de evidenciar seu potencial de contribuição para a área, onde ainda é pouco utilizada.

  • VITÓRIA CRISTINA MENDES DA SILVA
  • AJUSTE DE MODELOS DE CINÉTICA NA DESCRIÇÃO DA MINERALIZAÇÃO DO NITROGÊNIO DE RESÍDUOS DE PUPUNHEIRA

  • Orientador : JOEL AUGUSTO MUNIZ
  • Data: 09/02/2026
  • Mostrar Resumo
  • A pupunheira (Bactris gasipaes Kunt) é uma palmeira tropical utilizada tanto na produção de palmito quanto de frutos comestíveis, seu cultivo gera uma grande quantidade de resíduos orgânicos que, se manejados adequadamente contribuem significativamente para o fornecimento de matéria orgânica e nutrientes ao solo. O processo de mineralização desses resíduos orgânicos é um processo fundamental para a liberação gradual de nutrientes no solo, sobretudo o nitrogênio, que tem impacto direto na fertilidade e produtividade agrícola. Este trabalho tem como objetivo descrever e analisar o processo de mineralização do nitrogênio nos resíduos da pupunheira em duas formas de aplicação, incorporados e dispostos superficialmente ao solo, por meio do ajuste de modelos não lineares, identificando aquele mais adequado para representar esse processo ao longo do tempo. Os dados analisados foram obtidos de Pereira et al. (2015) e correspondem aos resultados de um experimento com resíduos da pupunheira em condições de campo e laboratório. Os modelos utilizados são bem conhecidos na literatura, sendo eles o de Stanford e Smith, Michaelis-Menten, Cabrera e Broadbent e Nakashima. Foram verificados os pressupostos de normalidade, homocedasticidade e independência pelos respectivos testes de Shapiro-Wilk, Breusch-Pagan e Durbin-Watson. Os modelos foram ajustados pelo método de mínimos quadrados utilizando o algoritmo de Gauss-Newton por meio do software estatístico R. A qualidade do ajuste foi avaliada com base nos valores do coeficiente de determinação ajustado , desvio padrão residual (DPR) e do critério de informação de Akaike (AIC). Em condições de campo, os modelos de Cabrera e Michaelis-Menten descreveram de forma satisfatória a mineralização do nitrogênio de resíduos da pupunheira no solo, sob manejo incorporado e superficial, respectivamente. Em condições de laboratório, os modelos de Stanford e Smith e Michaelis-Menten receberam destaque. O ajuste do modelo de Broadbent e Nakashima foi inferior em relação aos demais modelos. Os resultados contribuíram para a compreensão da dinâmica do nitrogênio no solo e podem subsidiar práticas agrícolas mais sustentáveis, especialmente no manejo de resíduos da produção da pupunheira

  • ISABELA DA SILVA LIMA
  • ASPECTOS TEÓRICOS, SIMULAÇÃO E APLICAÇÕES DA ESTIMAÇÃO SEQUENCIAL BAYESIANA EM DISTRIBUIÇÕES MULTINOMIAI.

  • Data: 06/02/2026
  • Mostrar Resumo
  • A amostragem sequencial é uma técnica estatística na qual o tamanho da amostra não é fixo. As observações são incorporadas sucessivamente ao processo, e a cada nova observação avalia-se o critério de parada estabelecido. O procedimento é interrompido quando esse critério é satisfeito, e o número total de observações realizadas até esse momento define o tamanho da amostra. A teoria da decisão bayesiana, associada à amostragem sequencial, constitui uma abordagem para a estimação de parâmetros de interesse, a qual permite incluir informações prévias na análise que auxiliam o plano de amostragem. A principal vantagem dessa abordagem é que ela geralmente resulta em tamanhos amostrais menores do que aqueles que seriam adotados considerando amostras de tamanho fixo, reduzindo custos e tempo. Entretanto, sua implementação apresenta desafios decorrentes da recursividade envolvida no processo, especialmente no que se refere à definição do critério de parada, os quais se tornam ainda mais complexos em modelos multivariados. Devido à dificuldade inerente ao procedimento, a maioria dos trabalhos nessa área existentes na literatura foram desenvolvidos para distribuições discretas e univariadas, notadamente para a distribuição binomial, havendo uma lacuna significativa no desenvolvimento e na aplicação de métodos de estimação
    sequencial bayesiana para distribuições multivariadas, como a multinomial, amplamente utilizada para estimar proporções em problemas com mais de duas categorias de resposta. Diante dessa lacuna, esta tese tem como objetivo propor a estimação dos parâmetros da distribuição multinomial através da inferência bayesiana utilizando uma amostragem sequencial, explorando os aspectos teóricos e aplicações. Para isso, por meio de estudos de simulação, analisou-se o comportamento da estimação sequencial bayesiana dos parâmetros da distribuição multinomial sob diferentes cenários. Em seguida, foi desenvolvido um aplicativo interativo via Web, utilizando o pacote Shiny do software R, visando ampliar a acessibilidade e a aplicabilidade prática da abordagem. Além disso, a aplicabilidade da abordagem foi ilustrada em duas situações práticas reais: na genética de populações, em que se estimaram as proporções alélicas e genotípicas para verificar o equilíbrio de Hardy-Weinberg, e na apicultura, na qual se estimaram as proporções do conteúdo de alvéolos de favos de abelhas africanizadas. De modo geral, os resultados apresentados nesta tese demonstram que a estimação sequencial bayesiana para parâmetros da distribuição multinomial é uma alternativa eficiente e economicamente vantajosa, capaz de produzir estimativas precisas com menor tamanho amostral. Além das contribuições metodológicas e computacionais, os estudos aplicados reforçam o potencial da abordagem para problemas reais em diferentes áreas do conhecimento.

  • JOÃO VITOR ANDRADE ALVES DE SOUZA
  • APLICAÇÃO DE MÉTODOS BASEADOS EM LÓGICA FUZZY E DE APRENDIZADO DE MÁQUINA PARA A PREVISÃO DE PREÇOS DE COMMODITIES

  • Orientador : GERALDO MAGELA DA CRUZ PEREIRA
  • Data: 06/02/2026
  • Mostrar Resumo
  • O milho e o farelo de soja são duas das principais commodities agrícolas do Brasil, desempenhando um papel estratégico para a economia brasileira. A previsão de seus preços é de suma importância para apoiar a tomada de decisões no setor agroindustrial. Este estudo tem por objetivo aplicar e avaliar a utilização de métodos Fuzzy Time Series (FTS) para previsão dos preços dessas commodities, considerando abordagens univariadas  e multivariadas. Esses modelos foram aplicados e comparados a algoritmos de Machine Learning (ML), como Random Forests, XGBoost, LightGBM, entre outros. Este estudo utiliza duas bases de dados de preços de commodities: uma com preços diários do milho em Minas Gerais e outra com preços mensais globais da soja, de outras commodities e de seus derivados. Após o particionamento dos dados em treinamento e teste, os modelos FTS e os algoritmos de aprendizado de máquina foram treinados e avaliados no conjunto de teste. A comparação entre os modelos foi realizada por meio das métricas MAPE, MASE, MDA e RMSE. Os resultados indicam que a lógica fuzzy é uma alternativa eficaz para a previsão de preços de commodities agrícolas, sendo adequada tanto em contextos univariados quanto multivariados e em diferentes escalas temporais.

  • DAVÍ BARBOSA PEREIRA DE SOUSA
  • MODELOS DE REGRESSÃO ESPACIAL PARA DADOS DE CONTAGEM COM INFLAÇÃO DE ZEROS

  • Data: 06/02/2026
  • Mostrar Resumo
  • Modelos de regressão espacial são utilizados para investigar a relação entre variáveis de interesse e fatores explicativos quando há dependência geográfica entre as unidades de análise. Entre as abordagens mais consolidadas nesse contexto destacam-se os modelos autorregressivos condicionais (CAR), em especial as parametrizações propostas por Besag, York e Mollié (BYM), BYM2 e Leroux, que permitem incorporar efeitos espaciais estruturados e não estruturados. Em aplicações envolvendo eventos raros, é frequente a presença de inflação de zeros na variável resposta, o que motiva o uso de modelos de Poisson Inflacionado de Zeros (ZIP). Neste trabalho, foram comparadas especificações de modelos de regressão espacial bayesianos, combinando estruturas CAR (BYM, BYM2 e Leroux) com distribuições Poisson e ZIP, por meio dos critérios de ajuste DIC, WAIC e LMPL. A metodologia foi aplicada a dois estudos de caso. O primeiro analisou o número de casos confirmados de leptospirose nos 853 municípios do estado de Minas Gerais, no período de 2022 a 2024, caracterizado por elevada inflação de zeros (80,89%) e autocorrelação espacial positiva moderada. O segundo avaliou os focos de queimadas nos municípios do Nordeste brasileiro em março de 2025, dados marcados por forte heterogeneidade espacial e excesso de zeros (37,01%). Os resultados indicaram a presença de dependência espacial em ambos os contextos, com desempenho superior dos modelos espaciais em relação às alternativas não estruturadas. No caso da leptospirose, o modelo CAR BYM ZIP apresentou o melhor ajuste, evidenciando a importância de acomodar simultaneamente a estrutura espacial e o processo gerador de zeros. Para os focos de queimadas, os modelos CAR BYM2 ZIP mostrou maior estabilidade e melhor desempenho, destacando a adequação de parametrizações mais parcimoniosas em cenários ambientais complexos. De forma transversal, observou-se que não há uma escolha universalmente superior entre BYM, BYM2 e Leroux, sendo o desempenho dos modelos dependente da intensidade da autocorrelação espacial, da proporção de zeros estruturais e da variabilidade residual dos dados. Conclui-se que a combinação entre modelos hierárquicos espaciais e distribuições inflacionadas de zeros constitui uma estratégia robusta para a modelagem de eventos raros em diferentes contextos empíricos. Os achados contribuem metodologicamente para a comparação crítica de parametrizações CAR e, do ponto de vista aplicado, oferecem subsídios para análises epidemiológicas e ambientais mais estáveis e informativas em nível territorial.

  • MARCELA SILVA DE ARAUJO
  • CLASSIFICAÇÃO DOS CONSUMIDORES BRASILEIROS DE CAFÉS ESPECIAIS CONFORME CRITÉRIOS DE COMPRA E MOTIVAÇÕES PARA O CONSUMO VIA ANÁLISE DE CLASSE LATENTES
  • Orientador : MARCELO ANGELO CIRILLO
  • Data: 03/02/2026
  • Mostrar Resumo
  • Esta dissertação tem como objetivo segmentar o mercado de consumidores de cafés especiais no Brasil por meio da identificação de perfis latentes associados à percepção sobre o consumo e aos critérios utilizados na decisão de compra. O estudo baseia-se em dados provenientes de um questionário aplicado a 900 consumidores, elaborado por pesquisadores da Universidade Federal de Lavras (UFLA) em parceria com o Instituto Agronômico de Campinas (IAC), contendo variáveis mensuradas em escala ordinal. Consideram-se cafés especiais aqueles que se diferenciam do café tradicional por atributos sensoriais e por características relacionadas ao sistema produtivo, como certificações e práticas sustentáveis. O instrumento contemplou aspectos econômicos, sensoriais e de qualidade, incluindo preço, marca, origem, variedade, métodos de processamento, certificações socioambientais e intensidade da torra, além de motivações para o consumo de cafés sustentáveis e razões para o não consumo da categoria. A confiabilidade das escalas foi verificada por meio do coeficiente alfa de Cronbach, com valores superiores a 0,80, indicando adequada consistência interna. A análise de classes latentes identificou quatro perfis distintos relacionados à percepção sobre o consumo de cafés especiais e cinco perfis associados aos critérios utilizados na decisão de compra, com seleção dos modelos fundamentada em critérios estatísticos, como o Critério de Informação Bayesiano (BIC), a entropia e medidas de verossimilhança. De forma complementar, foram realizadas análises de cluster hierárquico, as quais apresentaram segmentações menos consistentes, reforçando a adequação da LCA para capturar a heterogeneidade latente dos consumidores. Os perfis identificados variaram entre consumidores com elevado envolvimento e exigência técnica e grupos mais pragmáticos, sensíveis a preço e marca. Os resultados contribuem para a formulação de estratégias de marketing segmentadas e para o posicionamento de produtos, auxiliando o fortalecimento e a expansão do mercado de cafés especiais no Brasil.
     
  • YASMIN BEATRIZ PEREIRA SANTANA
  • IMPLEMENTAÇÃO DO MODELO AR(1) X AR(1) NA ANÁLISE DE EXPERIMENTOS DE CAMPO COM DEPENDÊNCIA ESPACIAL PARA O PACOTE SPANOVA
  • Orientador : RENATO RIBEIRO DE LIMA
  • Data: 02/02/2026
  • Mostrar Resumo
  • Em experimentos de campo, a análise estatística é frequentemente desafiada pela heterogeneidade espacial, onde a dependência entre as unidades experimentais representa um aspecto crítico que, se não adequadamente modelada, pode comprometer a confiabilidade das inferências. Métodos tradicionais mostram-se limitados diante da complexidade dos dados agrícolas que apresentam uma estrutura de dependência espacial. Nesse contexto, apresenta-se nesta dissertaçãoo desenvolvimento e a integração computacional da estrutura de covariância espacial AR(1) × AR(1) ao pacote spANOVA do software R. O modelo AR(1) × AR(1) será empregado por sua capacidade de modelar eficientemente a autocorrelação residual bidimensional em arranjos regulares, visando uma representação mais realista da estrutura dos dados. O objetivo central é expandir as funcionalidades do spANOVA, permitindo que pesquisadores especifiquem este modelo em suas análises para modelos mistos. A metodologia delineada inclui o desenvolvimento computacional e a validação da função AR(1) × AR(1), sua integração ao pacote, e a avaliação de desempenho por meio de simulações e aplicações a dados reais, utilizando a Máxima Verossimilhança Restrita (REML) para estimação de parâmetros, com vistas ao aprimoramento da análise de dados agrícolas com dependência espacial.

2025
Descrição
  • MOMATE EMATE OSSIFO
  • PROPOSIÇÃO DE TESTES BOOTSTRAP PARA IGUALDADE DE MATRIZES DE CORRELAÇÃO

  • Data: 28/11/2025
  • Mostrar Resumo
  • A comparação de matrizes de correlação desempenha um papel fundamental em diversas áreas, como estatística, ciência de dados e análise multivariada, pois permite investigar a estrutura de dependência entre variáveis em diferentes populações. A correlação linear é amplamente utilizada para compreender relações entre conjuntos de dados, mas a simples observação dos coeficientes par a par não é suficiente para avaliar, de forma estatística, a equivalência de duas ou mais matrizes de correlação. Nesses casos, testes assintóticos tradicionais mostram-se extremamente liberais, sobretudo em amostras pequenas ou em cenários de alta dimensionalidade. Nesse caso, o método  bootstrap se destaca como uma alternativa robusta e eficiente, cuja principal vantagem é a não necessidade do conhecimento prévio da distribuição de probabilidade populacional. Diante disso, este trabalho tem como objetivo propor testes para a igualdade de matrizes de correlação em populações multivariadas, não necessariamente normais, e com capacidade de lidar com outliers e alta dimensionalidade, por meio de métodos  bootstrap não paramétricos. Para tal, foram estudados os principais métodos existentes na literatura para a hipótese de homogeneidade de  I  matrizes de correlação populacionais e propostas versões bootstrap dos testes de Jennrich, Kullback, MPCBT (Maximum Pearson Correlation Bootstrap Test), MSCBT (Maximum Spearman Correlation Bootstrap Test), MSEDBT (Maximum Spearman Euclidean Distance Bootstrap Test) e MPEDBT (Maximum Pearson Euclidean Distance Bootstrap Test). O desempenho desses testes foi avaliado por meio de simulações de Monte Carlo, considerando a taxa de erro tipo I e o poder como medidas de desempenho, sob diferentes cenários de baixa e alta dimensionalidade e na presença de outliers. Os resultados mostraram que os testes MSEDBT e MPEDBT apresentaram os melhores desempenhos, com controle da taxa de erro tipo I, ``muito bom'' e ``bom'', respectivamente, especialmente para tamanhos amostrais maiores (n=50 e 80). Na presença de outliers, os testes MSEDBT e MSCBT foram os que melhor controlaram a taxa de erro tipo I para amostras maiores, tanto em baixa quanto em alta dimensionalidade. Assim, considerando seu desempenho superior em todos os cenários e configurações estudadas, o teste MSEDBT pode ser amplamente recomendado para testes de igualdade entre matrizes de correlação.

  • RAFAEL ALMEIDA PEREIRA MELO
  • PREDIÇÃO DE RISCO DE CRÉDITO COM APRENDIZADO DE MÁQUINA SUPERVISIONADO: UM ESTUDO DE CASO COM DADOS DESBALANCEADOS.

  • Data: 30/09/2025
  • Mostrar Resumo
  • Este trabalho tem como objetivo explorar o uso da Regressão Logística como ferramenta central na predição de risco de crédito, com ênfase no tratamento de dados desbalanceados - uma característica recorrente nesse tipo de problema. O modelo será avaliado por meio de métricas apropriadas, como Acurácia Balanceada, AUC (Área Sob a Curva ROC) e o coeficiente Kappa, com o intuito de garantir resultados robustos e comparáveis. A proposta visa construir um modelo preditivo interpretável, capaz de identificar inadimplentes com maior precisão, contribuindo para a aplicação prática da Regressão Logística no contexto financeiro.

  • GEAN PEREIRA DAMACENO
  • MODELOS DE REGRESSÃO PARA DADOS DE ÁREA COM VALORES EXTREMOS NO ESTUDO DA INCIDÊNCIA DE DENGUE EM MINAS GERAIS.

  • Data: 30/09/2025
  • Mostrar Resumo
  • A dengue tem se tornado uma ameaça crescente nos últimos anos, com surtos intensificando-se e sobrecarregando os sistemas de saúde. A propagação do vírus, transmitido pelo Aedes aegypti , está fortemente relacionada a fatores ambientais e urbanos, tornando essencial a utilização de técnicas estatísticas avançadas
    para entender sua disseminação e implementar ações eficazes. Modelos tradicionais de regressão, embora
    amplamente usados, assumem a independência das observações e não consideram a autocorrelação espacial,
    o que pode comprometer a precisão das estimativas em áreas geograficamente interdependentes. Para
    superar essa limitação, modelos espaciais como a Regressão Simultânea Autorregressiva (SAR) e a Regressão
    Condicional Autorregressiva (CAR) surgiram como soluções, capturando padrões espaciais e ajustando
    as dependências entre regiões. Contudo, esses modelos são sensíveis a valores atípicos, prejudicando a
    qualidade das análises. A Regressão Ponderada Geograficamente (GWR), que permite coeficientes espaciais
    variáveis, foi proposta como alternativa, mas também apresenta vulnerabilidade a valores extremos.
    A Regressão Ponderada Geograficamente Robusta (RGWR) é destacada como uma solução aprimorada,
    proporcionando maior resistência a outliers e oferecendo estimativas mais confiáveis. Este estudo aplica a
    metodologia RGWR para investigar a incidência de dengue em Minas Gerais em 2023, com o objetivo de
    melhorar a precisão das estimativas As variaveis do estudo, são as seguintes: incidencia de dengue como
    dependente. esgotamento sanitario adequado, area urbanizada, urbanização de vias públicas e arborização
    de vias públicas como variaveis independetes. A utilização de técnicas robustas visa proporcionar informações
    mais precisas para o monitoramento e combate à dengue, contribuindo para uma gestão mais eficiente
    e eficaz das ações de saúde pública.

  • LARISSA CARVALHO VILAS BOAS
  • ANÁLISE BAYESIANA DAS INTERAÇÕES GENÓTIPO X AMBIENTE E MARCADOR X AMBIENTE UTILIZANDO O MODELO AMMI-GBLUP-D EM ENSAIOS MULTIAMBIENTAIS.

  • Data: 05/09/2025
  • Mostrar Resumo
  • Nesta tese pretende-se apresentar o modelo de análise e o esquema de simulação corrrespondente para gerar conhecimentos sobre a interação entre marcadores genéticos e ambientes. Parte-se do modelo de interação entre genótipos e ambientes usando o AMMI-Bayesiano para extender este modelo em dois sentidos: a) usando  as informações de efeitos de dominãncia b) usando as informações de marcadores específicos. Pretnde-se melhorar aspectos de estimação e de previsao em modelos genéticos aditivo-dominantes. 

  • VICTÓRIA BARBOSA TAVARES
  • ANÁLISE DA BASE DOS PREÇOS DE MILHO PARA AS PRINCIPAIS PRAÇAS DE NEGOCIAÇÃO EM MINAS GERAIS POR MODELOS DE SÉRIES TEMPORAIS.

  • Data: 29/08/2025
  • Mostrar Resumo
  • O Brasil vem se tornando um dos principais países produtores e exportadores
    de milho, sendo uma das atividades econômicas mais relevantes exercidas no
    setor agropecuário nacional. O milho é um cereal de alto valor nutricional,
    amplamente utilizado como matéria-prima em diversos segmentos da indústria,
    como o setor alimentício, a produção agropecuária e até mesmo na fabricação
    de combustíveis renováveis, como o etanol. Conhecer como o preço dessa
    commodity se comporta é fundamental para a negociação dessa mercadoria,
    pois possibilita a maximização de receitas e a redução de riscos tanto para
    compradores quanto para vendedores. No mercado de derivativos, a base ou
    “basis” refere-se à diferença entre o preço da commodity no mercado físico e o
    seu preço no mercado futuro. O enfraquecimento ou fortalecimento dessa base
    pode indicar cenários mais ou menos favoráveis à trajetória dos preços do
    produto. Diante disso, este trabalho tem como objetivo ajustar modelos de
    séries temporais para análise da volatilidade da base de preços do milho no
    estado de Minas Gerais, comparando essa variação nos diferentes mercados
    físicos dessa região. Foram utilizados o modelo Autorregressivo Integrado e de
    Médias Móveis (ARIMA) e o modelo de Heteroscedasticidade Condicional Auto
    Regressiva Generalizada (GARCH). Os dados utilizados correspondem aos
    preços diários do milho em mercados físicos de diferentes praças mineiras,
    bem como às cotações do mercado futuro obtidas na B3, abrangendo o
    período de 16/07/2018 a 31/12/2024. Os modelos ajustados apresentaram bom
    desempenho, permitindo a realização de predições para um período de 7 e 15
    dias em cada praça analisada, a modelagem mostrou que a base do milho em
    Minas Gerais tem volatilidade persistente, com choques que se estendem por
    vários períodos, permitindo prever melhor as variações e apoiar decisões mais
    seguras de comercialização. Com base nos critérios de avaliação aplicados,
    concluiu-se que os modelos foram adequados, ajustando-se bem aos dados de
    base diários da commodity milho nos mercados do estado de Minas Gerais, no
    período estudado.

  • GISELA HÉLNIA NUNES CHIPENETE
  • VALIDMETH: UM APLICATIVO SHINY PARA AUTOMATIZAR O MÉTODO DE VALIDAÇÃO DE TESTES DE SEMENTES.

  • Data: 25/07/2025
  • Mostrar Resumo
  • A qualidade das sementes é fator determinante para o êxito da agricultura, contribuindo diretamente para o aumento da produtividade, sustentabilidade, resistência a estresses e uso eficiente de insumos. Esse resultado é viabilizado não apenas pelos avanços em melhoramento genético, biotecnologia e boas práticas agrícolas, mas também pela atuação estruturada do Sistema Nacional de Sementes e Mudas (SNSM). Coordenado pelo Ministério da Agricultura, Pecuária e Abastecimento (MAPA) e regulamentado pela Lei nº 10.711/2003 e pelo Decreto nº 10.586/2020, o SNSM estabelece normas para produção, certificação, análise, comercialização e fiscalização de sementes e mudas. Por meio do sistema de certificação, são definidos e monitorados padrões de germinação, pureza física e identidade genética, assegurando que as sementes ofertadas ao mercado atendam aos requisitos mínimos de qualidade exigidos para o desenvolvimento seguro e eficiente da agricultura brasileira. Em vista disso, testes de qualidade de sementes são realizados com frequência e constituem a base para a tomada de decisões técnicas, comerciais e regulatórias. Uma falha na qualidade desses testes pode ocasionar prejuízos, como perdas financeiras ao produtor, impedimentos de comercialização, riscos fitossanitários, além de multas e sanções legais. Por isso, é de suma importância garantir que os resultados dos métodos analíticos aplicados sejam corretos, e capazes de demonstrar sua confiabilidade dentro dos limites de variação aceitáveis. Essa garantia é conferida por meio de um rigoroso procedimento de validação, que atesta a precisão, repetibilidade e reprodutibilidade do método utilizado. Nesse contexto, a automatização de procedimentos estatísticos tem proporcionado ganhos significativos em eficiência, economia de tempo e redução de riscos relacionados a erros operacionais. Foi desenvolvido nesta pesquisa o aplicativo web VALIDMeth v0.1, utilizando o pacote shiny em R, com o objetivo de automatizar a análise estatística exigida na validação de métodos conforme os padrões da ISTA. A ferramenta realiza, de forma integrada, testes de outliers, ANOVA, teste de Cochran, estimativas de repetibilidade e reprodutibilidade, e testes de Mandel k e h. Com interface amigável, geração de gráficos e relatórios, o aplicativo visa aumentar a eficiência, padronização e confiabilidade dos ensaios laboratoriais em sementes, beneficiando laboratórios, instituições de pesquisa e o setor regulador.

  • MELISSA WENDY RIBEIRO VICENTE
  • ESTUDO DE SIMULAÇÃO MONTE CARLO EM RELAÇÃO A ORDEM DE ADIÇÃO DE SUBPRODUTOS DE CAFÉ EM EXPERIMENTOS DE MISTURA UTILIZADOS NA COMPOSIÇÃO DE SILAGENS PARA RUMINANTES.

  • Data: 18/07/2025
  • Mostrar Resumo
  • A alimentação é o principal custo na criação intensiva de ruminantes, o que torna crucial a busca por estratégias para reduzir esses gastos. A utilização de resíduos agrícolas, como os subprodutos da agroindústria do café (casca úmida e casca seca), surge como uma alternativa econômica e nutricionalmente equilibrada, além de contribuir para a redução do impacto ambiental. Para otimizar o aproveitamento desses resíduos, é essencial o uso de metodologias estatísticas adequadas, como os experimentos de mistura. Experimentos de mistura investigam os efeitos de diferentes proporções de componentes em uma formulação, onde a soma das proporções deve totalizar 1. A ordem de adição dos componentes também pode influenciar as propriedades finais da mistura. A utilização de variáveis de folga é uma alternativa para lidar com regiões experimentais restritas e reduzir a colinearidade em experimentos de mistura.

    Os dados para este estudo foram fornecidos pela Empresa de Pesquisa Agropecuária de Minas Gerais (EPAMIG) e se referem à composição de silagens produzidas com subprodutos do café. As misturas foram preparadas com diferentes proporções de melaço (MEL), casca de café seca (CCS) e casca de café úmida (CCU), e armazenadas em silos experimentais por 60 dias. Após a fermentação, as amostras foram coletadas, pré-secas, trituradas e encaminhadas para análise bromatológica. As variáveis-resposta analisadas foram matéria seca (MS), proteína bruta (PB), extrato etéreo (EE), digestibilidade in vitro (DIV), fibra em detergente neutro (FDN) e fibra em detergente ácido (FDA), que são indicadores da qualidade nutricional das silagens. As simulações Monte Carlo foram realizadas considerando restrições nas proporções de cada componente. A inclusão da ordem de adição dos componentes foi feita utilizando o procedimento Pair-Wise-Ordering (PWO). Três modelos estatísticos foram avaliados: Modelo de Scheffé com ordem convencional, Modelo de Scheffé com ordem de adição, e Modelo de Scheffé com ordem de adição e variáveis de folga. Os resultados das simulações Monte Carlo mostraram que a qualidade de ajuste dos modelos foi preservada para todas as variáveis, indicando um alto poder preditivo e que, a  ordem de adição dos componentes indicou que a entrada inicial do componente x3 (CCU) e x2 (CCS) é recomendada, pois resultou em respostas mais amplitudes menores entre os modelos, mostrando maior estabilidade. As misturas ótimas identificadas pelos três modelos são viáveis para a composição de silagens.

     

  • SARAH MARTINS REZENDE
  • ESTIMAÇÃO DOS PONTOS CRÍTICOS DO CRESCIMENTO DE FRUTOS DE CAFÉ CONILON: INTERVALOS DE CONFIANÇA VIA BOOTSTRAP.

  • Data: 17/06/2025
  • Mostrar Resumo
  • O café conilon (Coffea canephora) é uma cultura agrícola de grande relevância econômica, especialmente em regiões tropicais, devido à sua resistência a condições adversas. Nesse contexto, o conhecimento aprofundado sobre o crescimento e desenvolvimento dos frutos é fundamental para aprimorar as práticas de manejo e elevar a produtividade e a qualidade do produto. Diante disso, este estudo teve como objetivo descrever o acúmulo de matéria seca em frutos de café conilon, com o modelo Logístico, nos clones P1, 204 e 407, com ênfase na taxa de ganho de massa seca, pontos críticos das curvas de crescimento e obtenção dos intervalos de confiança. Os dados utilizados foram obtidos a partir do estudo de Senra et al. (2022). A estimação dos pontos críticos das curvas e das raízes das derivadas foi realizada por meio do método de Newton–Raphson. Para estimar os intervalos de confiança desses pontos, aplicou-se o método de reamostragem bootstrap. A qualidade do ajuste do modelo foi avaliada pelo coeficiente de determinação (R2). Os valores estimados para o parâmetro b, que representa o momento de acúmulo máximo de massa seca, foram de 117, 84 e 59 dias após a florada para os clones P1, 204 e 407, respectivamente, com massas secas correspondentes de 0,0875 g, 0,0922 g e 0,0723 g. Com base nesses resultados, é possível classificar o desenvolvimento dos frutos como tardio (P1), intermediário (204) e precoce (407). Essa diferenciação entre os ciclos de crescimento é relevante para o planejamento do manejo, da colheita e da escolha de materiais genéticos adequados a diferentes condições de solo e clima.

  • VANESSA MACULAN SILVÉRIO
  • MODELO LOG-NORMAL COM FRAÇÃO DE CURA NO CONTEXTO DA REGRESSÃO DISTRIBUCIONAL

  • Data: 17/06/2025
  • Mostrar Resumo
  • O câncer é uma das principais causas de morbidade e mortalidade em todo o mundo, com grande impacto na saúde pública e na qualidade de vida dos pacientes diagnosticados. A análise de sobrevivência é uma ferramenta importante para entender o tempo até a ocorrência de eventos, como falecimento ou progressão da doença, sendo fundamental em estudos sobre câncer, especialmente quando envolvem dados censurados e fração de cura. Para construir modelos que representem esses dados, são comumente utilizados modelos probabilísticos, como as distribuições Weibull e log-normal. No entanto, modelos mais flexíveis, como os modelos aditivos generalizados para locação, escala e forma (GAMLSS), são capazes de oferecer uma modelagem mais precisa, especialmente quando os dados apresentam características complexas que não podem ser totalmente capturadas pelos modelos tradicionais. Assim, esta dissertação propõe a utilização do modelo log-normal com fração de cura dentro da estrutura dos GAMLSS. São apresentadas a formalização matemática do modelo, sua implementação no pacote gamlss do software R e sua aplicação em dados sobre câncer de pâncreas. Como resultado, a implementação da distribuição log-normal com fração de cura no contexto dos GAMLSS, aplicada a dados sobre câncer de pâncreas mostrou-se adequada, demonstrando que a metodologia adotada é eficaz para captar as particularidades da sobrevivência nessa doença. Além disso, o modelo permitiu a inclusão de covariáveis que explicam simultaneamente a mediana de sobrevivência, a variabilidade dos tempos de vida e a chance de cura, evidenciando seu potencial para aprimorar a análise de sobrevida em contextos clínicos e epidemiológicos.

  • DIANA DEL ROCÍO REBAZA FERNÁNDEZ
  • DESENVOLVIMENTO DE NOVAS ALTERNATIVAS DE ESTIMADORES SHRINKAGE PARA DADOS DE CONTAGENS COM SUB E SUPERDISPERSÃO

  • Data: 16/06/2025
  • Mostrar Resumo
  • Um problema que afeta tanto modelos lineares quanto modelos lineares generalizados é a multicolinearidade, sub e/ou superdispersão . Nesta pesquisa, se abordaram alternativas de estimadores shrinkage aplicadas a modelos de dados de contagem, e, com esse propósito, o trabalho está estruturado em duas partes: a primeira corresponde ao referencial teórico, e a segunda é composta por dois artigos. No primeiro artigo, foram propostos estimadores shrinkage modificados para avaliar a multicolinearidade em amostras com superdispersão, sendo sugerida uma modificação dos estimadores ridge com o intuito de obter estimativas mais precisas. Foram simuladas distribuições de Poisson e binomial negativa e, por meio de simulações de Monte Carlo, construíram-se diferentes cenários considerando variados tamanhos amostrais e graus de correlação. Os resultados mostraram que o estimador proposto apresentou maior eficiência para pequenas amostras e alta correlação, mantendo competitividade em outros cenários. O segundo artigo apresenta a adaptação de estimadores ridge ao modelo de Poisson Generalizado, caracterizado por sua flexibilidade ao incorporar um parâmetro que permite diagnosticar o grau de subdispersão e sobredispersão. Os estimadores adaptados promoveram melhor desempenho na estimação dos parâmetros, aumentando a precisão e contribuindo para a robustez da inferência estatística. Para validar a proposta, foram realizadas simulações de Monte Carlo em diferentes cenários envolvendo tamanhos amostrais variados com a inclusão de intercepto e diferentes níveis de correlação entre as variáveis independentes. Dois casos de aplicação foram analisados, um em situação de subdispersão e outro em sobredispersão, evidenciando que os estimadores ridge adaptados apresentaram desempenho consistente em relação aos erros quadráticos médios e aos erros padrão das estimativas, além de os resultados empíricos estarem em concordância com as simulações realizadas.

  • LUCAS PEREIRA BARBOSA
  • ANÁLISE ESTATÍSTICA DA VOLATILIDADE EM PETR4 E VALE3 COM O MODELO APARCH: UMA PERSPECTIVA SOBRE PERÍODOS DE CRISE.

  • Data: 16/06/2025
  • Mostrar Resumo
  • O risco e a quantificação da incerteza são aspectos de grande importância para o setor financeiro

    de uma economia. Sob a ótica das entidades financeiras, a análise de risco possibilita a formu-
    lação de melhores estratégias para a gestão de carteiras de ativos e a alocação de recursos. O

    objetivo deste projeto é estudar o agrupamento, persistência e assimetria na volatilidade presente
    nas ações da Petrobras (Petróleo Brasileiro S/A), uma entidade de economia mista controlada

    pela União Federal, e da Vale do Rio Doce, uma instituição privada de controle acionário, am-
    bas listadas na Bolsa de Valores Brasileira, B3, durante períodos de instabilidade econômica

    ou política no cenário nacional. Em um ensaio inicial, foram consideradas as séries temporais
    de fechamentos diários das ações preferenciais da Petrobras, simbolizadas por PETR4, e das
    ações ordinárias da Vale, simbolizadas por VALE3, no período de janeiro de 2007 a dezembro
    de 2024. A modelagem da volatilidade foi realizada utilizando o modelo Asymmetric Power
    Autoregressive Conditional Heteroscedasticity (APARCH), permitindo avaliar a dinâmica de
    assimetria e a persistência dos choques presentes nos retornos durante o período em estudo.
    Os resultados preliminares sugeriram que choques negativos impactaram de maneira desigual a
    trajetória dos preços desses ativos em comparação aos choques positivos, evidenciado por uma
    maior inclinação na curva de impacto. Isso revela uma maior sensibilidade dos ativos a eventos
    adversos, o que aumenta o risco durante períodos específicos de instabilidade.

  • NATIELE DE ALMEIDA GONZAGA
  • ANÁLISE DA SECAGEM DE GRÃOS DE MILHO POR MODELOS NÃO LINEARES: ABORDAGEM BAYESIANA E ESTUDO DOS PONTOS INFLUENTES.

  • Data: 30/04/2025
  • Mostrar Resumo
  • A análise da cinética de secagem de grãos é amplamente adotada em estudos aplicados, pela sua relevância como etapa fundamental para garantir a qualidade dos grãos e reduzir perdas pós-colheita. Modelos matemáticos são empregados para descrever a cinética de secagem, que representam a perda de umidade ao longo do tempo. Nesta tese, foram realizados dois ensaios com o objetivo de analisar a secagem de grãos de milho, com foco especial em estimativas dos parâmetros envolvidos, a partir tanto de métodos frequentistas quanto bayesianos, bem como analisar detalhadamente pontos influentes nas curvas de secagem. No primeiro ensaio, o estudo propôs a utilização de três modelos de regressão não linear para descrever a secagem de grãos de milho, com base em dados experimentais coletados em condições controladas. A estimação dos parâmetros dos modelos foi realizada por meio da abordagem bayesiana, que permite incorporar informações prévias. Para isso, foram adotadas distribuições a priori baseadas no princípio da máxima entropia, com o objetivo de representar o conhecimento prévio disponível. A obtenção das distribuições a posteriori dos parâmetros foi realizada por meio do método de Monte Carlo via Cadeias de Markov (MCMC), que viabiliza a realização de inferências mesmo em situações de alta complexidade computacional. No segundo ensaio, adotou-se a abordagem frequentista para a estimação dos parâmetros de cinco modelos de secagem. Além disso, foi conduzida uma análise detalhada com o objetivo de identificar os pontos influentes nas curvas de decrescimento ajustadas por cada modelo, propondo uma abordagem para identificação e interpretação de pontos influentes em curvas de decrescimento associadas à secagem, como ponto de inflexão, ponto de máxima aceleração, desaceleração assintótica e foi proposto um novo ponto influente, o P1. A identificação desses pontos foi realizada com base na análise das derivadas das funções ajustadas, permitindo captar mudanças relevantes na dinâmica da perda de umidade. Para isso, foram construídos intervalos de confiança por meio do método bootstrap. Os resultados obtidos dessa tese evidenciam que a aplicação de modelos não lineares, aliados a métodos estatísticos robustos, permite descrever com precisão o processo de secagem, além de oferecer subsídios relevantes para a tomada de decisões no controle e na otimização desse processo.

  • LÚCIA HELENA COSTA BRAZ
  • PROPOSIÇÃO DE TESTES DE COMPARAÇÕES MÚLTIPLAS MULTIVARIADAS COM O TRATAMENTO CONTROLE

  • Data: 29/04/2025
  • Mostrar Resumo
  • Problemas envolvendo comparações da eficiência de tratamentos para respostas multivariadas são comuns em diversas áreas do conhecimento. Em geral, os métodos de comparações utilizam a desigualdade de Bonferroni para construir testes conservativos, evitando as complexidades da distribuição exata da estatística T2max do teste (máximo de uma T2 de Hotelling). Em cenários de alta dimensionalidade, os métodos tradicionais não são viáveis, pois dependem da inversa da matriz de covariâncias amostral, que se torna singular. Para contornar este problema, o critério do traço de Dempster pode ser usado, e uma segunda alternativa é a estatística Tig do teste de Ahmad, entretanto, em ambos os casos se recorre à desigualdade de Bonferroni. Outro problema é que tanto no processo de estimação quanto no de distribuição das estatísticas para os testes de comparações múltiplas há a necessidade de lidar com métodos numéricos sofisticados e complexos.  Estes fatos fazem com que estas aproximações não possam ser prontamente utilizadas.  Para tentar contornar esses desafios, esta tese propõe testes de comparações múltiplas multivariadas com o tratamento controle, utilizando uma aproximação empírica para a aproximação de segunda ordem de Bonferroni e o método bootstrap não-paramétrico. O desempenho dos testes foi avaliado por meio das taxas de erro tipo I por experimento (TEE) e poder em diferentes cenários, utilizando simulação Monte Carlo. Os resultados mostraram que, para cenários homocedásticos, o teste bootstrap proposto TAB apresentou um controle mais eficaz da TEE, além de apresentar maior poder, independentemente da distribuição ser normal ou não, tanto em contextos de baixa quanto de alta dimensionalidade. Dessa forma, o teste TAB se mostrou a alternativa mais recomendada nessas situações. Para cenários heterocedásticos, não foi possível identificar um teste claramente superior, porém, em várias circunstâncias, os testes bootstrap propostos demonstraram desempenho superior em relação às suas respectivas versões assintóticas.

  • LUIZ FERNANDO SILVA RESENDE
  • MÉTODO DE SEGMENTAÇÃO POR BOXPLOT CIRCULAR PARA DADOS MULTIMODAIS E SUA APLICAÇÃO NA ANÁLISE DE CAPTURA DE ENXAMES DE ABELHAS COM EVENTOS RECORRENTES.

  • Data: 29/04/2025
  • Mostrar Resumo
  • A estatística circular é aplicada em diversos ramos da ciência tais como meteorologia, planejamento urbano e estudos entomológicos, principalmente quando se trata de pesquisa sobre sazonalidade, horários e direções. A presença de multimodalidade em conjuntos de dados é um desafio na análise e modelagem estatística. Esse problema também é comum em dados circulares, em que muitas vezes a segmentação de cada conjunto modal é realizada de forma empírica utilizando convenções como dias da semana, meses ou estações do ano ou utilizando algoritmos de maximização a partir da modelagem por misturas de distribuições von Mises, que exige conhecimento teórico mais avançado. Essa tese propõe um método de segmentação a partir da construção de boxplot circular. No primeiro capítulo o método foi apresentado e sua eficácia verificada através de simulação em diferentes cenários e posteriormente aplicado a conjunto de dados sobre horários de acidentes de trânsito. Verificou-se que o método proposto foi mais adequado para o estudo de multimodalidade em dados circulares ao equilibrar simplicidade e precisão. Assim, foi eficiente ao ajustar os acidentes que apresentaram multimodalidade considerando a distribuição dos horários ao longo da semana. No segundo capítulo realizou-se um experimento de captura de enxames de abelhas Apis mellifera, durante um ano, a partir da instalação de ninhos-armadilha, registrando-se dados lineares tais como altura, precipitação, umidade e velocidade do vento e as circulares: direção do vento, época de captura (mês) e ângulo do alvado, que representa o posicionamento do ninho em relação ao norte magnético. Além disso, avaliou-se a variável qualitativa cor de revestimento do ninho-armadilha. A época de captura apresentou padrões bimodais, concentradas em dois períodos sazonais: outono (abril a junho) e primavera (agosto a outubro). Assim, utilizou-se a tecnica de segmentaçao por boxplot circular para estudá-la e também realizou-se a relação entre as variáveis registradas no experimento através da correlação linear-linear, linear-circular e circular-circular de acordo com a natureza de cada variável. No terceiro capítulo, devido a presença de dados censurados, já que, as datas de captura foram registradas em intervalos, entre o último dia com ausência do enxame e o dia da observação, foi utilizada a análise de sobrevivência considerando uma mistura de von Mises para estimar a função de sobrevivência da época de captura de enxames. 

  • ÍCARO VITERBRE DEBIQUE SOUSA
  • SEMIVARIOGRAMAS MÉDIOS PARA KRIGAGEM DE BLOCOS.

  • Data: 16/04/2025
  • Mostrar Resumo
  • Em várias áreas da ciências, tais como biológicas, ambientais, epidemiológicas, agropecuárias, entre outras possuem dados com variações no espaço. Grande parte dos estudos, mensuram-se somente as variações utilizando método estatísticos que não consideram as interações existentes entre as dimensões do espaço. Ao abordar a espacialidade em dados contínuos tem-se a existência da Geoestatística, que com o uso do semivariograma é capaz de detectar a dependência espacial com a utilização do semivariograma. Comumente, a Geoestatística utiliza-se de um preditor pontual, são os casos típicos da sua utilização. Nesse trabalho é tratado um sistema de predição para a média da variável aleatória do fenômeno para uma região retangular em um sistema bidimensional, denominado krigagem de blocos. A principal complexidade desta técnica é a modelagem da semivariância média entre os pontos e o bloco retangular em análise. Atualmente existem apenas métodos numéricos para se obter esse valor e limitado a fenômenos do modelo esférico, sendo assim, contendo erros de aproximação e limitação a diversos fenômenos. Apresenta-se então a construção analítica dos semivariogramas médicos utilizados para a kriagem de blocos em regiões retangulares para modelos usuais de semivariogramas, sendo assim criando a possibilidade de se aplicar a técnica em diversas situações páticas antes não possíveis. Toda a técnica para se construir os semivariogramas médios de maneira analítica é apresentada e posteriormente aplicada em um aplicativo desenvolvido em Shiny App, com intuito de facilitar ao usuário final a aplicação da técnica. O vanço da krigagem de blocos pode solucionar problemas de predição de média para diversos fenômenos, como produração agrícola, quantitativos de blocos de mineração ou qualquer outra necessidade de se obter valores médios da variável aleatória, considerando a espacialidade do fenômeno.

  • ANTONIO MENDES MAGALHÃES JÚNIOR
  • UTILIZAÇÃO DE ALGORITMOS DE MACHINE LEARNING NA CLASSIFICAÇÃO DE SEMENTES POR MEIO DE
    DESCRITORES DE TEXTURA DE HARALICK: UMA APLICAÇÃO SHINY

  • Data: 18/03/2025
  • Mostrar Resumo
  • O Brasil possui um dos maiores mercados mundiais de sementes, responsável pela movi-
    mentação de bilhões de reais anualmente. A relevância deste mercado torna de grande
    importância a análise de sementes, a fim de identificar possíveis danos e o potencial de
    germinação das mesmas. As análises geralmente são realizadas por avaliadores, entretanto
    é um processo que carrega consigo uma subjetividade inerente e é de difícil escalabilidade.
    Buscando mitigar essa subjetividade, aumentar a velocidade das análises e a redução de
    custos, técnicas de Machine Learning, como Redes Neurais Artificiais e Random Forest
    podem ser utilizadas para auxiliar nessas análises. Entretanto a utilização dessas técnicas
    requer um certo grau de conhecimento do usuário, dificultando sua difusão. A utiliza-
    ção de uma aplicação web com interface para o usuário constitui possível solução para
    este problema. Neste trabalho, o objetivo é a criação de uma aplicação web utilizando
    framework Shiny em conjunto com técnicas de Machine Learning para a classificação de
    imagens de sementes. Para tal, é utilizada a linguagem R em conjunto com o framework
    Shiny e o usuário pode realizar o treinamento e validação de modelos de Machine Learning
    para a classificação de imagens baseada em descritores de textura de Haralick, além de
    salvar estes modelos para utilização futura em novos dados.

  • ANTONIO MENDES MAGALHÃES JÚNIOR
  • DESENVOLVIMENTO DE UMA INTERFACE GRÁFICA PARA UTILIZAÇÃO DE ALGORITMOS DE APRENDIZADO DE MÁQUINA NA CLASSIFICAÇÃO DE IMAGENS: UM ESTUDO DE CASO NA SELEÇÃO DE GRÃOS DE SEMENTES.

  • Data: 17/03/2025
  • Mostrar Resumo
  • O Brasil possui um dos maiores mercados mundiais de sementes, responsável pela movi-
    mentação de bilhões de reais anualmente. A relevância deste mercado torna de grande
    importância a análise de sementes, a fim de identificar possíveis danos e o potencial de
    germinação das mesmas. As análises geralmente são realizadas por avaliadores, entretanto
    é um processo que carrega consigo uma subjetividade inerente e é de difícil escalabilidade.
    Buscando mitigar essa subjetividade, aumentar a velocidade das análises e a redução de
    custos, técnicas de Machine Learning, como Redes Neurais Artificiais e Random Forest
    podem ser utilizadas para auxiliar nessas análises. Entretanto a utilização dessas técnicas
    requer um certo grau de conhecimento do usuário, dificultando sua difusão. A utiliza-
    ção de uma aplicação web com interface para o usuário constitui possível solução para
    este problema. Neste trabalho, o objetivo é a criação de uma aplicação web utilizando
    framework Shiny em conjunto com técnicas de Machine Learning para a classificação de
    imagens de sementes. Para tal, é utilizada a linguagem R em conjunto com o framework
    Shiny e o usuário pode realizar o treinamento e validação de modelos de Machine Learning
    para a classificação de imagens baseada em descritores de textura de Haralick, além de
    salvar estes modelos para utilização futura em novos dados.

  • IURI DOS SANTOS MANOEL
  • USO DE MÉTODOS ROBUSTOS PARA TRATAMENTO DE OUTLIERS NA ESTIMAÇÃO DE PARÂMETROS DO MODELO LOGÍSTICO.

  • Data: 06/03/2025
  • Mostrar Resumo
  • Em análise de dados é comum utilizar modelos para descrever a relação entre as variáveis em estudo. Entretanto, quando há outliers no conjunto amostral, as estimativas dos parâmetros do modelo podem ser tendenciosas. Desse modo, a detecção e tratamento adequado de outliers é imprescindível para garantir resultados representativos. Neste contexto, métodos robustos podemser uma solução para lidar com outliers, pois podem mitigar os efeitos que esses valores têm em estimativas de interesse. Entre a diversidade de metodologias robustas difundidas na literatura, destaca-se os métodos robustos Jackknife e Least Trimmed Squares (LTS). Esses métodos são eficientes e versáteis na seleção de subconjuntos amostrais com menos outliers que o conjunto amostral. Isso permite selecionar uma proporção da amostra que a melhor representa.
    Diante do exposto, este trabalho tem como objetivo propor metodologias robustas inovadoras aplicadas na descrição de curvas de crescimento. Esses métodos estão apresentados em três capítulos em que a proposta é obter um ajuste do modelo não linear Logístico que melhor representa o conjunto de dados. No primeiro capítulo, o método de reamostragem Jackknife é implementado ao considerar estimativas para o coeficiente de curtose como critério de seleção. Já no segundo capítulo, o método LTS é implementado ao considerar partições da amostra para selecionar valores de acordo com a soma de quadrados dos desvios (SQD). Ressalta-se que nesses dois primeiros capítulos as metodologias propostas são aplicadas na descrição de um conjunto de dados simulados via Monte Carlo. Por fim, no terceiro capítulo ambos os métodos são aplicados na descrição de um conjunto de dados reais. Os dados são de cunicultura oriundos do Departamento de Zootecnia da Universidade Federal de Lavras. As medidas observadas são o peso e o comprimento da pata dianteira dos coelhos. Para a implementação das metodologias, é considerado um ponto de ruptura como critério para determinar o tamanho dos subconjuntos selecionados para o ajuste. Além disso, a comparação entre ajustes é feita pelo desvio médio
    absoluto (DMA). As metodologias propostas neste trabalho são promissoras em ajustes do modelo Logístico na descrição de curvas crescimento. O ponto de ruptura e o DMA são apropriados como critérios para determinar o tamanho do subconjunto amostral e comparação entre os ajustes, respectivamente.

  • NOÉ OSÓRIO MACÁRIO
  • AVALIAÇÃO DE MODELOS DE APRENDIZADO DE MÁQUINA PARA PREDIÇÃO DO DIABETES MELLITUS.

  • Data: 20/02/2025
  • Mostrar Resumo
  • O presente trabalho avalia o desempenho de diferentes modelos de aprendizado de máquina (AM) na predição de Diabetes, uma condição crônica de grande relevância para a saúde pública. Utilizando dados do VIGITEL 2023, que incluem mais de 21 mil observações, foi realizado um processo de pré-processamento completo, que envolveu seleção de variáveis, balanceamento de classes, tratamento de valores ausentes e padronização dos dados. Os algoritmos analisados foram Árvores de Decisão, Florestas Aleatórias, Naive Bayes, Redes Neurais Artificiais e XGBoost. A avaliação do desempenho dos modelos foi conduzida com base em métricas como sensibilidade e área sob a curva ROC, fundamentais para identificar casos positivos e realizar uma discriminação eficiente entre as classes. O modelo XGBoost se destacou como o mais eficaz, apresentando as melhores métricas de sensibilidade, especificidade e área sob a curva ROC em quase todas as abordagens (considerandas todas as variáveis, MIC - Maximal Information Coefficient e PCA - Principal Component Analysis), tanto para dados balanceados quanto desbalanceados, o que evidencia sua superior capacidade preditiva. Em contraste, o modelo de Árvore de Decisão obteve o desempenho mais inferior, destacando suas limitações quando aplicado a dados desbalanceados. Os resultados reforçam o potencial do aprendizado de máquina na detecção precoce de doenças crônicas, como o Diabetes, sublinhando sua relevância para aprimorar diagnósticos médicos, otimizar custos e fornecer suporte crucial para intervenções clínicas mais eficazes.

  • ELIAS MANENSA SABE
  • MODELOS ADITIVOS GENERALIZADOS PARA LOCAÇÃO, ESCALA E FORMA: ANÁLISE HISTÓRICA E A PROPOSIÇÃO DE NOVAS DISTRIBUIÇÕES ZERO-AJUSTADAS.

  • Data: 18/02/2025
  • Mostrar Resumo
  • Do ponto de vista da classe dos modelos de regressão remontam ao século XIX e visa compreender como um conjunto de variáveis preditoras influencia ou explica uma ou mais variáveis respostas. Dentro dessa classe de modelos de regressão univariados, podemos construir uma linha histórica que começa com os modelos lineares (LM), seguidos pelos modelos lineares generalizados (GLM), modelos aditivos generalizados (GAM) e, finalmente, os modelos aditivos generalizados para locação, escala e forma (GAMLSS), também conhecidos atualmente como modelos de regressão distribucional. Os GAMLSS podem ser considerados os modelos de regressão mais flexíveis disponíveis na literatura, dada sua versatilidade para modelar respostas com diferentes características, como, por exemplo, forte assimetria, diferentes graus de curtose ou excesso de zeros. Este estudo teve objetivo construir distribuições contínuas com probabilidade extra de ocorrência de zeros (zero-ajustadas) utilizando os modelos aditivos generalizados para locação, escala e forma (GAMLSS). Para alcançar o objetivo geral, foram elencadas duas etapas. A primeira etapa, é apresentado um artigo que versa sobre a evolução histórica dos GAMLSS, desde seus primórdios, destacando suas principais contribuições e inovações em diversas áreas do conhecimento. Já à segunda etapa, é apresentado um artigo que busca contribuir para o avanço da modelagem de dados com os GAMLSS, focando em respostas contínuas positivas com excesso de zeros, desenvolvendo novas distribuições zero-ajustadas. Foram propostas duas distribuições pertencentes à família Box--Cox: Box-Cox Cole e Green Zero-Ajustada (zBCCG) e Box-Cox Exponencial Potência Zero-Ajustada (zBCPE). Os estudos de simulação mostraram que os estimadores de máxima verossimilhança para os parâmetros das distribuições zBCCG e zBCPE fornecem resultados consistentes para diferentes tamanhos amostrais e cenários, incluindo distribuições simétricas, assimétricas positivas e negativas, bem como cenários platicúrticos e leptocúrticos. Para o estudo de caso analisado a distribuição zBCPE apresentou maior flexibilidade e melhor desempenho estatístico em comparação a zBCCG. Assim pode-se concluir que, os modelos GAMLSS têm um impacto significativo em diversas áreas do conhecimento, como evidenciado pela crescente produção científica, além de sua reconhecida flexibilidade na modelagem de dados com características complexas.

  • RAUL REZENDE LEITE
  • MODELOS NÃO LINEARES NO ESTUDO DO ACÚMULO DE MATÉRIA SECA DE PLANTAS DE SOJA SOB O EFEITO DE DIFERENTES TRATAMENTOS

     


  • Data: 18/02/2025
  • Mostrar Resumo
  • A soja é uma espécie vegetal atualmente de grande relevância mundial. O grão é a parte da planta de maior interesse sendo uma commoditie negociada nas bolsas de valores de todo o mundo. Sendo que no início da utilização da soja no Brasil, toda a parte aérea da planta e os grãos, eram alimento para os ruminantes. O Brasil está em primeiro lugar no ranking de maiores produtores mundiais do grão. Como o crescimento vegetal apresenta comportamento sigmoidal, o qual é bem ajustado por meio de modelos não lineares, este trabalho teve como objetivo comparar o ajuste dos modelos não lineares Logístico, Gompertz e von Bertalanffy aos dados de acúmulo de Mst, Msc, Msf e Msr em grama/m², cultivadas nas condições IPTP, ISFV, NIFV e NIFF em relação aos dias após a emergência das plantas. Os dados analisados foram obtidos e adaptados de Pereira (2002). O experimento foi conduzido no ano agrícola 1998/1999, na Estação Experimental Vila Chaves, no Câmpus da Universidade Federal de Viçosa, localizada no município de Viçosa (MG). Os pressupostos de normalidade, homocedasticidade e independência residual foram verificados com os testes de Shapiro-Wilk, Breusch-Pagan e Durbin-Watson, respectivamente. Os modelos foram ajustados pelo método de mínimos quadrados utilizando o algoritmo de Gauss-Newton por meio do software R. A qualidade do ajuste foi baseada nos valores do coeficiente de determinação (R²), do desvio padrão residual (DPR) e do critério de informação de Akaike (AIC). Foram calculados as estimativas e os intervalos de confiança para cada um dos parâmetros dos modelos que melhor se ajustaram aos dados. E foram gerados os gráficos para cada variável de cada tratamento com os modelos inicialmente ajustados. Para a variável Mst com o efeito do tratamento IPTP o modelo mais adequado foi o von Bertalnffy e para os demais tratamentos o modelo Logístico. Para a variável Msc com o efeito dos tratamentos IPTP e ISFV o modelo mais adequado foi o Logístico e para os tratamentos NIFV e NIFF o modelo Gompertz foi mais adequado. Para a variável Msf com o efeito dos tratamentos IPTP e NIFV o modelo von Bertalanffy foi o mais adequado, para o tratamento ISFV o modelo Logístico e para o tratamento NIFF o modelo Gompertz. E para a variável Msr com o efeito do tratamento IPTP nenhum dos modelos testados se ajustou aos dados e para os demais tratamentos o modelo Logístico foi o mais adequado.

  • LEONARDO BIAZOLI
  • INFERRING THE IMPACT OF INTERNATIONAL MOBILITY OF BRAZILIAN RESEARCHERS USING LARGE-SCALE BIBLIOMETRIC DATASETS.

  • Data: 13/02/2025
  • Mostrar Resumo
  • International mobility of researchers plays a significant role in a globalized context, enhancing the internationalization of science by providing scientists with access to transnational collaboration networks. Thus, while the countries of origin of mobile scientists may experience losses in human capital, they establish international connections that can yield significant benefits for the advancement of research in the long term. This dynamic can influence the socioeconomic and innovative development of nations, posing challenges for researchers and policymakers. Many studies on academic mobility involving bibliometric data analysis face challenges in data collection, organization, and while establishing causal relationships. For the latter, the literature reports the use of quasi-experimental models. The overarching goal of this study is to assess the impact of international mobility on the academic careers of Brazilian researchers in the fields of health and life sciences., focusing on movements between 2010 and 2016. To achieve this, it is necessary to organize and visualize bibliometric data from Scopus to identify patterns in the trajectories of Brazilian health researchers and understand the main countries involved in migration flows. It is worth noting that the complexity and scale of the database present challenges, such as systematic biases and difficulties in author identification. All these challenges are thoroughly addressed, and an in-depth exploratory data analysis is conducted, using propensity score matching in an initial study of causal effects. In a second study a generalized synthetic control model was employed to estimate the causal effects of researchers’ international mobility, accounting for multiple treatment periods. This model was applied using a sample of non-migrant researchers matched to migrant researchers through the propensity score matching method. By applying quasi-experimental models like synthetic control, the study sought to understand the dynamics and impacts of this migration on the careers of Brazilian researchers, providing a broader perspective on the phenomenon. The findings highlight the United States, Canada, and the United Kingdom as the primary destinations for Brazilian researchers in health and life sciences, indicating that these movements predominantly occur toward developed nations in the Global North. Exploratory results also revealed that Medicine, Agriculture, and Biochemistry, Genetics, and Molecular Biology emerged as the dominant fields among both migrant and non-migrant researchers. The causal effects suggest that international mobility leads to changes in the variables analyzed, including citations received, SJR (Scientific Journal Rankings), and research collaboration. This study offers guidance on using synthetic control models in bibliometric data analyses. In the third work, we present the technological outcome of this research, which is the CapesData package, developed in the R programming language. It compiles mobility data published on the CAPES portal and serves as an additional tool to facilitate the monitoring of Brazilian researchers' mobility. This dissertation provides a comprehensive and detailed approach to statatistical methods for inferring from observational data in the field of the Science of Science. Furthermore, it provides valuable insights for the development of science internationalization policies. The methodology applied can also be extended to analyze the effects of international mobility in other fields of knowledge.

  • ROXANA CHURATA HUACANI
  • PARAMETRIZAÇÕES DE MODELOS NÃO LINEARES NO ESTUDO DA CURVA DE CRESCIMENTO DE LHAMAS (LAMA GLAMA) NO PRIMEIRO ANO DE IDADE.

  • Data: 12/02/2025
  • Mostrar Resumo
  • As curvas de crescimento são uma maneira de descrever o crescimento em um determinado período do tempo. Existem muitas funções não-lineares (Gompertz, Richards, von Bertalanffy e Logístico) que têm sido amplamente utilizadas em diferentes espécies pecuárias para descrever o desenvolvimento do peso corporal. A maioria dos modelos não lineares utilizados na modelagem de curvas de crescimento em animais domésticos apresentam diferentes parametrizações e podem ser razoáveis do ponto de vista teórico, mas podem ter parâmetros que são difíceis de interpretar, o que, na prática, pode dificultar seu entendimento, afetar medidas de não linearidade e inferências sobre parâmetros. Nesse sentido, os objetivos deste trabalho foram estudar diferentes parametrizações dos modelos não lineares de Brody, von Bertalanffy e Gompertz na descrição da curva de crescimento de lhamas desde o nascimento até os 12 meses de idade bem como avaliar os efeitos ambientais de sexo e tipo do animal sobres os parâmetros da curva de crescimento. Os dados analisados foram obtidos do Centro Experimental Quimsachata, pertencente ao Instituto Nacional de Innovación Agraria de Puno, Peru. Foram utilizados os pesos corporais individuais de lhamas machos e fêmeas pertencentes a dois tipos do animal: K'ara e Ch'accu. A qualidade do ajuste foi avaliada com base nos valores do Coeficiente de determinação ajustado (R2), Desvio padrão residual (DPR), Índice de concordância de Willmott(d) e as medidas de não linearidade, tanto a intrínseca (cI) quanto a paramétrica (cθ). Todos os modelos apresentaram bons ajustes, porém as parametrizações 1 e 2 do modelo Brody apresentaram os maiores valores de R2 (99,5%), os menores valores do DPR (0,67), os maiores valores de d (0,999) e os valores mais baixos das medidas de não linearidade, indicando que são os modelos mais adequados para a descrição da curva de crescimento de lhamas ao longo de um ano de idade, fornecendo assim estimativas mais confiáveis dos parâmetros. Os efeitos de sexo e tipo foram significativos, sendo que as lhamas fêmeas atingiram maiores pesos assintóticos (41,68 kg) do que os machos (40,98 kg), enquanto as lhamas de tipo K’ara apresentaram maiores pesos assintóticos do que os de tipo Ch'accu.

  • OSVALDO MOISÉS ASSINDE
  • INFERÊNCIA SOBRE GRÁFICOS DE RADAR: UM EXEMPLO NO MELHORAMENTO VEGETAL.

  • Data: 31/01/2025
  • Mostrar Resumo
  • O objetivo deste trabalho é apresentar as pectos de inferência (intervalos de redibilidade) para uma ferramenta de visualização de estatística multivariada (gráficos de radar). As utilizações encontradas para este gráfico na literatura nunca envolvem inferência e esta seria a novidade técnica de maior importância da dissertação. Foi simulado um experimento do tipo empregado no melhoramento genético vegetal (com valores paramétricos controlados para os genótipos em várias caracteres). Também foi reavaliado um experimento da literatura que empregadva os gráficos de radar, sem a inferência que estamos propondo. Os resltados são animadores pois as regiões de credibilidade obtidas com inferência Bayesiana univariada para cada caractere sugerem que a adoção da técnica pode ser útil ao menos em dois cenários: seleção para multiplos caracteres e seleção para múltiploa ambientes, considerando cada ambiente como um caractere diverso.

      

2024
Descrição
  • TAIS TEIXEIRA DAS NEVES
  • DELINEAMENTO COMPOSTO CENTRAL E SUAS APLICAÇÕES.

  • Data: 30/10/2024
  • Mostrar Resumo
  • O planejamento experimental é uma etapa crucial para o correto desenvolvimento de uma pesquisa científica. Tem sido crescente a utilização do delineamento composto central (DCC) associado à metodologia de superfícies de respostas (MSR), em diversas áreas de pesquisa. O objetivo deste trabalho foi a sistematização da literatura publicada sobre utilização do DCC e MSR nos últimos 5 anos. Para isso foi elaborada uma revisão sistemática de literatura, utilizando o software StArt (State of the Art through Systematic Review). Seguindo o fluxograma PRISMA, buscas foram realizadas em 3 bases de dados (Science Direct, Scopus e Web of Science), baseadas nos critérios de inclusão e exclusão. Nas etapas de triagem e seleção foram removidos artigos duplicados, capítulos de livros, revisões e artigos incompletos. De um total de 959 artigos encontrados e examinados, 111 foram relevantes para o estudo de DCC e MSR. Artigos relevantes destacaram que DCC e MSR são metodologias que se complementam. Os tipos de DCC mais utilizados foram rotacional (68,5%) e face centrada (20,7%). Esses delineamentos otimizaram entre 2 a 6 fatores simultaneamente, com um número de ensaios experimentais variando de 9 a 47. DCC e MSR foram aplicados em diferentes áreas do conhecimento, com destaque para farmácia (formulação de medicamento) e ambiental (remoção de contaminantes), visando reduzir os custos dos experimentos e obter respostas otimizadas para solucionar a problemática. Estatisticamente, os dados provenientes do DCC são submetidos a ANOVA que gera um modelo polinomial quadrático, empregado na criação da MSR. Um ponto crítico identificado nesta revisão é a utilização de softwares pagos para avaliar DCC
    e criar MSR. Alternativamente, o uso de softwares livres ou de código aberto como R e Python pode ser uma alternativa para solucionar este problema. Este trabalho contribui para o entendimento sobre a utilização do DCC e MSR como metodologia para otimização de experimentos.

  • MARIA VITORIA NEVES
  • PROPOSIÇÃO DE TESTES ROBUSTOS COMEDIAN PARA DETECÇÃO DE OUTLIERS MULTIVARIADOS BASEADOS EM RESÍDUOS DA ANÁLISE DE COMPONENTES PRINCIPAIS.

  • Data: 16/10/2024
  • Mostrar Resumo
  • Em diversas pesquisas nos deparamos com amostras aleatórias de variáveis univariados ou multivariados. Em muitos casos  a existência de observações denominadas de outliers são responsáveis por sérios comprometimento da inferência estatística. A detecção desses outliers se torna de extrema importância nestes casos, uma vez que  as inferências realizadas podem levar à conclusões equivocadas. Em um conjunto de dados multivariados a detecção de outliers é mais complexa que nos casos univariados em razão da dimensão ser definida além da reta real. Vários testes existem para a detecção dos outliers multivariados, mas todos são dependentes de distribuições assintóticas, distribuições normais e são extremamente influenciados pela presença dos próprios outliers que se pretende identificar e excluir da amostra aleatória. Nesse sentido, o objetivo deste trabalho é propor testes assintóticos robustos baseados nos estimadores  comedian e em resíduos da análise de componentes principais para detectar outliers multivariados. Também objetivou-se avaliar os desempenhos  dos testes propostos e existentes avaliados no presente trabalho por meio de simulação Monte Carlo, mensurando a capacidade dos testes de identificar os outliers e os não outliers na amostra aleatória. Para a geração dos dados simulados, utilizou-se uma amostra proveniente de uma população normal multivariada utilizando o software R.  A partir dos dados amostrais, foram obtidos os componentes principais para a realização dos testes através  do programa R. Conclui-se que os testes propostos, utilizando o estimador robusto comedian, obtiveram os melhores resultados na detecção dos outliers. Além disso, o teste de Rao, ao utilizar o comedian, destacou-se como o melhor, pois também detectou corretamente os não outliers.

  • LOUIZIANE RIBEIRO CARVALHO
  • MODELOS PARA DESCREVER A CURVA DE LACTAÇÃO DE OVELHAS SANTA INÊS E MESTIÇAS SANTA INÊS X LACAUNE.

     

  • Data: 10/10/2024
  • Mostrar Resumo
  • A criação de ovinos é tradicional em várias regiões do mundo, podendo ser explorada para produção de carne e/ou leite, além da utilização da pele e da lã (em algumas raças). Os maiores rebanhos mundiais encontram-se nos continentes asiático e africano. No Brasil, a Bahia é o estado com o maior rebanho ovino, seguido por Pernambuco, Rio Grande do Sul, Ceará e Piauí. A maior parte dos animais criados no Brasil destinam-se à produção de carne. A ovinocultura leiteira, embora represente uma menor parcela em comparação com a produção de carne ovina, é uma atividade de grande importância econômica e social em várias regiões do mundo. Os países onde se concentram as maiores produções de leite de ovelha são China, Turquia, Grécia, Arábia Saudita e Espanha. A maior parte do leite de ovelha produzido em todo mundo é transformada em queijo e, em menor proporção, em iogurte. Os maiores produtores de queijo de leite de ovelha são Grécia, Itália, China, Espanha e França. No Brasil, a atividade leiteira, dentro da ovinocultura é recente, teve início no Rio Grande do Sul, e posteriormente expandiu para Santa Catarina e Minas Gerais. A raça Santa Inês, amplamente distribuída em nosso território, teve sua origem no Nordeste brasileiro, é especializada na produção de carne, apresentando também uma considerável produção de leite. A raça Lacaune, originária da França, é especializada na produção de leite e, adicionalmente produz cordeiros com boa qualidade de carcaça. A curva de lactação é a representação gráfica da produção de leite do animal em função do tempo, podendo ser utilizada para definir o manejo nutricional, além da seleção e descarte de animais. O objetivo deste estudo foi comparar diferentes modelos de regressão para descrever a curva de lactação de ovelhas da raça Santa Inês e do cruzamento entre as raças Santa Inês e Lacaune. Os dados analisados foram extraídos do estudo de Ferreira (2009). Foram utilizados os modelos Brody (1924), Nelder (1966), Wood (1967), Cappio-Borlino, Pulina e Rossi (1995) e Cobuci (2000). Para estimar os parâmetros dos modelos foi utilizado o método de mínimos quadrados, usando o algoritmo de convergência de Gauss-Newton, no software R. Na análise de resíduos foram utilizados testes estatísticos para verificar as pressuposições de normalidade (teste Shapiro-Wilk), homocedasticidade (teste Breush-Pagan) e independência (teste Durbin-Watson). Para verificar a qualidade de ajuste dos modelos analisados foram utilizados o coeficiente de determinação ajustado (Raj2) e o critério de informação de Akaike (AIC). Na análise de resíduos, as pressuposições de normalidade, homocedasticidade e independência foram atendidas para todos os modelos e genótipos estudados. De acordo com os critérios de avaliação e qualidade, os cinco modelos tiveram bons ajustes, o Raj2 foi superior a 0,76 para a raça Santa Inês e superior a 0,88 para o cruzamento ½ Lacaune x ½ Santa Inês. Dentre os modelos analisados o modelo Wood foi o que teve melhor desempenho, apresentando maior Raj2 e menor AIC. As estimativas dos parâmetros do modelo Wood foram aproximadamente: a = 1,033; b = 0,267 e c = 0,061 para as ovelhas da raça Santa Inês e a = 1,611; b = 0,434 e c = 0,102 para as ovelhas mestiças (Lacaune x Santa Inês). O pico de produção de leite (produção máxima) foi de 1,174 litros para as ovelhas Santa Inês e 1,954 litros para as ovelhas mestiças, ambos ocorrendo entre a 4ª e 5ª semana de lactação. A produção total de leite (produção acumulada) foi de 115,293 litros para as ovelhas Santa Inês e 175,986 litros para as mestiças.  A persistência da lactação (ln(s)) foi de 3,55 e 3,27 para as ovelhas Santa Inês e mestiças, respectivamente. O cruzamento entre as raças Santa Inês e Lacaune, promoveu um aumento considerável na produção de leite das ovelhas.

  • ALEX MONITO NHANCOLOLO
  • PROCESSOS PONTUAIS ESPACIAIS UNIVARIADOS APLICADOS À DISTRIBUIÇÃO DE ESPÉCIES ARBÓREAS EM FLORESTAS NATURAIS.

  • Data: 16/07/2024
  • Mostrar Resumo
  • A maior parte das áreas florestais no mundo (3,75 bilhões de hectares) consiste em florestas de regeneração natural. No Brasil, aproximadamente 485.396.000 hectares são de florestas nativas. As florestas naturais, que incluem tanto florestas de regeneração natural quanto florestas nativas, devido à pouca intervenção da ação humana para seu reflorestamento, estabelecem internamente a que distância os indivíduos da mesma espécie ou de espécies diferentes devem estar para sua sobrevivência. Essas distâncias internas de separação definem distintos padrões de distribuição espacial das plantas (aleatório, agrupado e regular). Compreender os fatores responsáveis por esses padrões é crucial para um bom manejo florestal. Este estudo teve como objetivo investigar o padrão de distribuição espacial das espécies Siparuna guianensis, Xylopia brasiliensis, Copaifera langsdorffii e Myrcia splendens e modelá-lo para identificar os fatores diretamente ligados a ele. Estas espécies fazem parte de um fragmento florestal de Mata Atlântica de 6,2 hectares, existente no Campus da Universidade Federal de Lavras (UFLA), no estado de Minas Gerais, Brasil. Para isso, foram utilizados inventários florestais de 1987 a 2017, juntamente com métodos não paramétricos de kernel para caracterizar tendências de configuração espacial e as funções L_inhom e J_inhom para caracterizar padrões de distribuição espacial. Modelos Poisson e Cox foram ajustados usando método de máxima pseudo-verossimilhança e máxima verossimilhança Palm e validados por meio de análise de resíduos, Critério de Informação de Akaike e simulações de Monte Carlo (1000). A dinâmica espaço-temporal (1987-2017) revelou baixa mortalidade entre as espécies, com uma leve mortalidade durante 2015-2017 devido ao fenômeno El Niño registrado entre 2015 e 2016. Apesar disso, Copaifera langsdorffii, Myrcia splendens e Siparuna guianensis apresentaram crescimento limitado. A análise do padrão de distribuição espacial mostrou que Siparuna guianensis e Copaifera langsdorffii exibem tendência espacial mas não dependência espacial. As distribuições espaciais dessas espécies foram modeladas por meio do modelo de Poisson não homogêneo. Esse modelo mostra que a baixa abundância de Copaifera langsdorffii foi influenciada por fatores como acidez do solo, capacidade de troca catiônica efetiva, conteúdo de matéria orgânica e composição de argila, enquanto para a espécie Siparuna guianensis os fatores que influenciaram negativamente a intensidade são a baixa capacidade de germinação (<30\%) e a presença de alumínio. Em contraste, Xylopia brasiliensis e Myrcia splendens demonstraram dependência espacial intraespecífica. Modelos Cox revelaram que a acidez potencial e a matéria orgânica influenciam positivamente a intensidade da espécie {Xylopia brasiliensis, enquanto a umidade, cálcio, magnésio e alumínio influenciam negativamente a intensidade restrita de Myrcia splendens ao sudeste. Este estudo contribuiu para a compreensão da dinâmica espaço-temporal e dos padrões de distribuição espacial das espécies estudadas, fornecendo modelos explicativos para sua distribuição.

  • DAIANE DE OLIVEIRA GONÇALVES
  • MODELOS CONJUNTOS DE ANÁLISE DE DADOS LONGITUDINAIS CENSURADOS: ASPECTOS COMPUTACIONAIS E APLICAÇÃO NA RELAÇÃO DO SISTEMA DE IRRIGAÇÃO COM O SURGIMENTO DE MANCHAS FOLIARES DO CAFÉ

  • Data: 27/06/2024
  • Mostrar Resumo
  • Estudos relacionados a características de fenômenos/experimentos no tempo, como estudos longitudinais ou do tempo até a ocorrência de um evento de interesse, se fazem cada vez mais presentes em diversas áreas. Estes dois fenômenos podem ser tratados, respectivamente, por meio dos modelos lineares mistos e modelos de sobrevivência. No entanto, podem existir situações em que se objetiva investigar a relação entre uma ou mais respostas longitudinais e um evento de interesse, que pode ser realizada com o auxílio da modelagem conjunta de dados longitudinais e de sobrevivência. Porém, esses modelos podem apresentar problemas de convergência e serem computacionalmente exigentes, tornando inviável a utilização dos mesmos em muitos casos. Neste sentido, esta tese, foi separada em dois estágios, o primeiro compreende o objetivo de propor uso da medida da probabilidade de cobertura cruzada, como instrumento de diagnóstico da conexão dos modelos longitudinal e sobrevivência, para auxiliar na estimação de um modelo conjunto que envolva ambos os processos. O primeiro objetivo foi alcançado por meio de um estudo de simulação Monte Carlo, realizando uma comparação entre modelos longitudinais e de sobrevivência, em função de diferentes porcentagens de censura e estrutura de covariância das medidas repetidas. No segundo estágio aplicou-se a metodologia apresentada do modelo conjunto de dados longitudinais e de sobrevivência para compreender a influência do tipo de irrigação no tempo até ao aparecimento da mancha de Phoma no café. Os resultados dessa tese mostraram que o procedimento utilizado para estimar probabilidades de cobertura cruzada, como instrumento de diagnóstico da conexão dos modelos longitudinal e sobrevivência, se mostrou adequado, ao considerar o modelo Weibull. O aumento do percentual de censura ocasionou um impacto negativo em relação à convergência numérica para a obtenção das estimativas de máxima verossimilhança dos modelos conjuntos para dados longitudinais e de sobrevivência. Os resultados da aplicação proporcionaram uma análise ampla sobre a relação entre as variáveis e como o tempo está relacionado aos riscos de incidência da mancha de phoma em cafeeiro.

  • ROGER ALMEIDA PEREIRA MELO
  • SELEÇÃO DE VARIÁVEIS EM MODELOS DE REGRESSÃO: UMA AVALIAÇÃO DO USO DE REDES DE PROBABILIDADES CONDICIONAIS

     

  • Data: 20/06/2024
  • Mostrar Resumo
  • A Rede bayesiana é um método apresentado por Judea Pearl em 1985 que descreve um modelo probabilístico gráfico, representando um conjunto de variáveis e suas dependências condicionais por meio de um grafo acíclico direcionado. Os vértices (ou nós) representam proposições (ou variáveis), as arestas (ou arcos), quando são direcionadas, significam as dependências probabilísticas entre essas variáveis. O objetivo deste trabalho é avaliar o uso de redes bayesianas para seleção de variáveis em modelos de regressão. A técnica é comparada com métodos stepwise em alguns cenários de simulação que consideram diferentes tamanhos amostrais, correlações entre as variáveis (resposta e covariáveis) e diferentes números de variáveis. Além do estudo de simulação, apresentamos uma aplicação prática das redes bayesianas nesse contexto. Para isso, foram usados dados de uma pesquisa realizada entre 2018 e 2019, com médicos veterinários de Minas Gerais, com o objetivo de identificar os fatores de risco mais importantes associados à exposição acidental às vacinas anti-Brucella abortus (Brucelose). Uma das respostas de interesse no trabalho é a prevalência de brucelose entre esses profissionais, que foi estimada a partir de um modelo de regressão logístico. Ao utilizar Rede bayesiana, as variáveis detectadas como mais importantes associadas à exposição acidental às vacinas foram o conhecimento sobre os sintomas da brucelose, se o profissional realizou procedimentos de partos prematuros ou abortos nos últimos seis meses e a frequência que o profissional usa equipamentos de proteção individual. Todas as análises foram realizadas no software R utilizando o pacote bnlearn.

  • BRUNA DA COSTA SILVA
  • TESTES BOOTSTRAP PARAMÉTRICOS MULTIVARIADOS BASEADOS EM ENTROPIA PARA NORMALIDADE

  • Data: 19/06/2024
  • Mostrar Resumo
  • A normalidade multivariada em dados amostrais ou experimentais é assumida em muitas modelagens e estatísticas inferenciais, o que torna fundamental testar tal suposição, pois caso ela seja violada, resultados e conclusões incorretas podem ocorrer. Inúmeros testes baseados em entropia para avaliar normalidade já foram elaborados, entre eles destacam-se os testes univariados TH_mn(1) e TH_mn(2), que controlam adequadamente a taxa de erro tipo I, além de serem poderosos. A partir dos testes TH_mn(1) e TH_mn(2), este estudo tem como objetivo propor dois testes multivariados PBMTH(1) e PBMTH(2), que são baseados em entropia e fundamentados na técnica de bootstrap paramétrico. Os testes propostos tiveram seus desempenhos avaliados e comparados com outros testes multivariados já existentes e pode-se concluir que PBMTH(1) e PBMTH(2) obtiveram excelentes controles das taxas de erro tipo I e não foram uniformemente os mais poderosos, como os demais testes. No entanto, PBMTH(1) e PBMTH(2) podem ser aplicados para alta dimensionalidade e não são assintóticos, portanto, podem ser recomendados.

  • LUIZ FELIPE AMORIM FARIA
  • CURVAS DE APRENDIZADO EM MODELOS LINEARES COM RESPOSTAS OMISSAS APLICADAS A DADOS DE QUALIDADE DE CAFÉS UTILIZANDO OS CRITÉRIOS DA ABIC

  • Orientador : MARCELO ANGELO CIRILLO
  • Data: 29/04/2024
  • Mostrar Resumo
  • A associação brasileira de cafés (ABIC) apresenta critérios de pontuação que permite classificar os cafés em diferentes níveis de qualidade. A questão a ser envolvida, baseia em análise sensorias, das quais, supostamente amostras poderão ser selecionadas ou revisadas em provas de xícaras. Neste contexto, conjectura-se uma situação em a retirada dessas amostras, poderá ser feita de forma arbitrária ou sistematicamente em função de alguma de qualidade. Com este propósito, surge um problema de natureza estatística, no uso de modelos lineares convencionais, que não consideram a relação de viés e erros qudráticos médio. Desta forma, para este problema, sugere um aprimoramento na modelagem, pautada por técnicas de aprendizado em concordância com a regressão Lasso, a qual, estima-se um parâmetro de regulazização que permite controlar esta relação. Mediante ao exposto, este trabalho tem por objetivo realizar uma aplicação em duas bases de dados, referente a cafés produzidos em diferentes denominações geográficas, mais especificamente microrregiões produtoras a Serra da Mantiqueira e Canastra, sugerindo um modelagem estatística em consonância com os critérios da ABIC, tendo como nota de corte, a pontuação que classifica cafés aceitáveis e não aceitáveis ao consumo, com o propósito de comparar estimativas dos parâmetros da regressão múltipla convencional com a regressão lasso e propor uma recomendação de tamanho amostral, a ser utilizado como amostra de treinamento  nos procedimentos de aprendizado de máquina.

  • MATHEUS FERES FREITAS
  • MATRIZES DE VIZINHANÇA NÃO ESPACIAIS EM MODELOS ESPAÇO-TEMPORAIS DA CLASSE STARMA: UM ESTUDO DE CASO APLICADO A DADOS EPIDEMIOLÓGICOS.

  • Data: 25/03/2024
  • Mostrar Resumo
  • Neste estudo, foi estudada a viabilidade de se usar matrizes de vizinhança (W) com base em critérios não espaciais, em modelos espaço-temporais da classe autorregressiva e de médias móveis (STARMA). Os dados utilizados consistem em uma série espaço-temporal composta por nove séries temporais que medem a incidência de tuberculose, observadas mensalmente entre 2002 e 2022, nas cidades mineiras de Belo Horizonte, Betim, Contagem, Ibirité, Nova Lima, Ribeirão das Neves, Sabará, Santa Luzia e Vespasiano. Para avaliar o impacto da matriz W no ajuste do modelo, utilizou-se a matriz de contiguidade e outras cinco matrizes construídas por critérios não espaciais, buscando assim descrever não somente as interações entre áreas mas também intra-áreas. Essas matrizes foram geradas por um Índice Municipal Socioeconômico (IMS) derivado de combinações lineares de duas variáveis socioeconômicas: o Índice de Desenvolvimento Humano (IDH) municipal mais recente e a média das três avaliações de 2022 do Previne Brasil, programa que avalia a qualidade do serviço prestado pela Atenção Primária à Saúde (APS) municipal. Seis modelos STARMA foram ajustados com as matrizes de vizinhança definidas. O ajuste do modelo foi realizado em três etapas: identificação, estimação e diagnóstico. Para a seleção do modelo, utilizou-se o Critério Bayesiano de Schwarz, ou Critério de Informação Bayesiano (BIC). Concluiu-se que o melhor modelo foi obtido com uma W não espacial, fortemente correlacionada à qualidade da saúde básica municipal. Nas previsões, o erro absoluto percentual médio (MAPE) foi utilizado como critério, observando-se que o modelo ajustado com a matriz de contiguidade apresentou aproximadamente 5% menos erro em comparação com o modelo que melhor se adequou aos dados. Este trabalho também demonstrou a necessidade de mais estudos no que tange ao uso de matrizes não espaciais, para responder questionamentos como: as matrizes W não espaciais são pertinentes apenas para modelos espaço-temporais da classe STARMA? Os modelos aos quais esse tipo de matriz for adequado, são adequados a todos os tipos de dados? Qual a maneira de criação do índice que otimiza a construção da matriz W não espacial?

  • JÉSSICA GRACIELLE SILVA SPURI
  • ESQUEMAS DE ASSOCIAÇÃO E DELINEAMENTOS EXPERIMENTAIS.

  • Data: 18/03/2024
  • Mostrar Resumo
  • Uma área importante da Estatística é a que estuda delineamentos experimentais. Os delineamentos experimentais referem-se ao desenho no qual os experimentos são conduzidos. A teoria Matemática subjacente à construção desses delineamentos muitas vezes é pouco explicitada. Uma abordagem que apresenta de forma equilibrada a análise estatística dos delineamentos experimentais e também a complexidade da matemática envolvida, encontra-se nos trabalhos de Rosemary A. Bailey. O presente trabalho visa esclarecer e tornar mais acessível a relação entre a Estatística e a Teoria Matemática subjacente. Em particular, a teoria dos esquemas de associação e sua conexão com os delineamentos experimentais. Diagramas de Hasse e suas relações com a análise de variância são exemplificados. O uso de grafos em delineamentos, teoria relativamente recente na literatura, é também abordado. Neste contexto, o presente trabalho tem por objetivo abordar a teoria dos delineamentos experimentais utilizando esquemas de associação. A partir desta abordagem temos as seguintes contribuições: um exemplo geométrico para o esquema de associação cíclico é proposto; um novo algoritmo para o cálculo do strata de um delineamento é mostrado em detalhes; apresenta-se uma discussão sobre as distintas definições de delineamentos ortogonais; utilizando a teoria dos grafos, tem-se resultados sobre delineamentos solúveis; e grafos são utilizados como redes elétricas em delineamentos ótimos. Além disso, algumas novas demonstrações alternativas são apresentadas.

  • DENISE DE ASSIS PAIVA
  • ANÁLISE DE SIMILARIDADE GENÔMICA ENTRE DIFERENTES CORONAVÍRUS: A CONTRIBUIÇÃO DOS MÉTODOS K-MER E NATURAL VECTOR.

  • Data: 11/03/2024
  • Mostrar Resumo
  • Estudos envolvendo métodos de alinhamento de sequências existem há bastante tempo. Entretanto,
    o processo para alinhar as sequências ainda é relativamente demorado e requer computadores
    mais potentes, tanto para análise com genomas virais e  principalmente para genomas de
    bactérias. Nesse sentido, os métodos livres de alinhamento conseguem superar essas questões,
    alcançando a mesma precisão com um tempo de análise parcialmente menor. Nesta tese, foram
    realizados estudos considerando dois métodos livres de alinhamento, k-mer e o Natural Vector,
    na classificação de genomas virais. O método k-mer, além de manter a precisão e obter um
    tempo menor de análise, conseguiu separar corretamente os grupos correspondentes as variantes
    e linhagens das sequências da SARS-CoV-2. O método Natural Vector realizou de forma correta
    a classificação de mais 2 tipos de coronavírus, SARS-CoV e MERS-CoV, além da SARS-CoV-2,
    separando as sequências de acordo com o tipo de coronavírus específico. Os dois métodos podem
    ser usados de forma complementar, em que o k-mer realiza a correta classificação dentro do
    grupo das sequências de cada tipo de coronavírus, como é o caso da SARS-CoV-2, enquanto o
    Natural Vector consegue realizar essa classificação considerando outros tipos de coronavírus ao
    mesmo tempo. Um aplicativo, em python,  para a análise de similaridades de sequências genômicas foi desenvolvido e será disponibilizado para os usuários. A classificação rápida das sequências de coronavírus é de suma importância para o controle de epidemias, especialmente em época de surtos virais.

  • LUIZ ELPIDIO DE MELO MACHADO
  • MODELOS NÃO LINEARES APLICADOS NA DESCRIÇÃO DO ACÚMULO DA RADIAÇÃO GLOBAL NO NÍVEL DO SOLO.


  • Data: 05/03/2024
  • Mostrar Resumo
  • A irradiância solar é o fluxo de radiação eletromagnética proveniente do Sol. A radiação solar é uma fonte fundamental de energia na Terra, influencia diretamente o desenvolvimento de espécies vegetais, é usada em processo de secagem, aquecimento e produção de energia elétrica, entre outros. A intensidade da irradiação que chega ao solo sofre atenuação devido a três fontes de perturbação: rotação do planeta associado a hora do dia; inclinação do eixo da Terra e da translação desta em torno do Sol, que definem proporcionam os equinócios e os solstícios; a atmosfera que absorve ou dispersa os solares pela presença de aerossóis e nuvens. O acúmulo da irradiação solar global no nível, do solo, ao longo do dia tem características sigmoidal. O objetivo deste trabalho é avaliar os modelos não lineares tendo o tempo em UTC (Coordinated Universal Time) como variável preditora para descrever o acúmulo irradiação global acumulada diária (kJ/m2) como variável resposta; analisar os parâmetros estimados; analisar o efeito das condições atmosféricas sobre os parâmetros. Os dados da irradiação global estão disponíveis no Histórico de Dados Meteorológicos do Instituto Nacional de Meteorologia (INMET), referem-se às cidades brasileiras localizadas nos biomas Amazonas (Rio Branco, Manaus, Humaitá, Macapá), Cerrado (São Luís, Brasília, Campo Grande), Caatinga (Petrolina, Mossoró), Mata Atlântica (Vitória, Rio de Janeiro, São Paulo, Belo Horizonte, Curitiba, Recife) e Pampa (Santa Maria, Santa Vitória do Palmar). Para ajustar a irradiação global acumulada diária no nível do solo nos solstícios e nos equinócios optou-se pelos modelos Logísticos, Gompertz, vom Bertalanffy e Richards. O software R foi o recurso empregado no ajuste, usando o método de mínimos quadrados utilizando o algoritmo de Gauss-Newton. Na analise de resíduo foram usados os testes Shapiro-Wilk, Breusch-Pagan e Durbin-Watson. Para avaliar a qualidade dos ajustes foram utilizados os valores do coeficiente de determinação (R²), do desvio padrão residual (DPR) e do critério de informação de Akaike (AIC). Os resultados mostraram que o modelo Logístico melhor se ajustou em 43 dos 68 conjuntos de dados e o modelo Gompertz em 25, o modelo von Bertalanffy quando atendeu os pressupostos apresentou piores resultados nos critérios de seleção e o modelo Richards não convergiu. O modelo Logístico foi o que melhor ajustou aos dados. As abscissas dos pontos de inflexão estimadas pelo modelo Logístico tem correlação muito forte como a longitude, assim como as abscissas estimadas pelo modelo Gompertz. A correlação entre os valores assintóticos de todos os biomas com as latitudes é moderada ou muito fraca, porém a correlação dos valores assintóticos do Bioma Mata Atlântica e as latitudes é forte ou muito forte.

  • ELISEU CASTANHEIRO ALBERTO
  • MODELAGEM DA PERDA ACUMULADA DE NITROGÊNIO POR VOLATILIZAÇÃO NA ADUBAÇÃO DE COBERTURA EM PLANTAS DE MILHO.

  • Data: 20/02/2024
  • Mostrar Resumo
  • A cultura do milho é uma das mais importantes do mundo, sendo que 70% da produção mundial é destinado para a alimentação animal e 30% para o consumo humano, produção da bioenergia, de produtos químicos e farmacêuticos. Para o aumento da sua produtividade é necessário o fornecimento de nutrientes essenciais, tais como nitrogênio (N), fósforo (P) e potássio (K), que muita das vezes são escassos em lavouras de milho. A Ureia possui alta concentração de nitrogênio, que é importantíssimo para a cultura de milho, é facilmente manuseada e com menor custo por quilograma de nitrogênio, mas ela apresenta elevadas perdas deste nutriente por volatilização. Assim, são desenvolvidas tecnologias que visam minizar estas perdas, a mais difundida é o N-butil tiofosfórico triamida (NBPT). As perdas acumuladas de nitrogênio por volatilização provenientes da Ureia em kg/ha apresentam um padrão sigmoidal, portanto, os modelos não lineares se apresentam adequados para a descrição dos dados. Este trabalho tem como objetivo selecionar o modelo não linear mais adequado para descrever a perda acumulada de nitrogênio por volatilização de fertilizantes ureicos de eficiência aumentada com NBPT aplicados na adubação de cobertura em plantas de milho. Os dados analisados são provenientes de Fonseca et al. (2021) e correspondem a perda aculumada por volatilização dos fertilizantes: Ureia granulada (UGRAN), Ureia + NBPT + NPPT (UNBPT1), Ureia + Aduto de NBPT (UNBPT2), Ureia + NBPT (UNBPT3), Ureia + NBPT (NBPT4). Os pressupostos de normalidade, homocedasticidade e independência residual foram avaliados com os testes de Shapiro-Wilk, Breusch-Pagan e Durbin-Watson, respectivamente. Os modelos foram ajustados pelo método iterativo de Gaus-Newton utilizando o software R. A qualidade do ajuste foi avaliada com base nos valores do coeficiente de determinação (R2), do critério de informação de Akaike (AIC) e do desvio padrão residual (DPR). O Modelo von Bertalanffy foi ao que melhor se ajustou aos dados dos fertilizantes de Ureia pura (UGRAN) e Ureia + NBPT2, enquanto que o modelo Gompertz melhor se ajustou aos dados dos fertilizantes Ureia + NBPT1, Ureia + NBPT3 e Ureia + NBPT4. A Ureia pura apresentou maior perda acumulada de nitrogénio por volatilização com uma estimativa de 36,503kg/ha enquanto que a Ureia + NBPT4 a menor perda com uma estimativa de 14,623kg/ha, indicando uma redução de 59,9%.

  • VIVIANE COSTA SILVA
  • ANÁLISE COMPARATIVA ENTRE MODELOS DE REGRESSÃO DISTRIBUCIONAL E OS PRINCIPAIS ALGORITMOS DE APRENDIZADO DE MÁQUINA NA PREDIÇÃO DE DADOS METEOROLÓGICOS.

  • Data: 19/02/2024
  • Mostrar Resumo
  • Os modelos de regressão univariados remotam ao século XIX e visam compreender como um conjunto de variáveis explicativas influencia ou explica uma variável resposta. Embora seja comum encontrar trabalhos que comparem metodologias flexíveis de aprendizado de máquina com modelos de regressão convencionais, essa comparação pode não ser adequada, devido às pressuposições rigorosas e a restrição de flexibilidade dos modelos de regressão usuais. Assim, esta dissertação propõe verificar e comparar o desempenho dos modelos de regressão distribucional, inicialmente propostos como modelos aditivos generalizados para locação, escala e forma (GAMLSS), que são uma abordagem mais moderna e flexível, com outros algoritmos de aprendizado de máquina comumente empregados na literatura, a saber: random forest, support vector regression, extreme gradient boosting e prophet, para conjuntos de dados meteorológicos. Em um primeiro artigo, já publicado em um periódico, foi destacada a necessidade de utilizar os GAMLSS na modelagem da temperatura média diária em um período de um ano na cidade de Florianópolis - SC. Esse estudo mostrou que modelos de regressão menos complexos não seriam adequados para explicar completamente a resposta, devido às diferentes estruturas de regressão construídas na sua distribuição. No segundo artigo, comparamos a performance preditiva dos GAMLSS com os quatro outros algoritmos de machine learning mencionados. Utilizamos dados provenientes de uma estação meteorológica automática na cidade de Florianópolis - SC, coletados ao longo de 10 anos (de 30 de março de 2013 a 28 de março de 2023). Os GAMLSS baseados na distribuição Box-Cox t apresentaram resultados mais satisfatórios na maioria das métricas utilizadas para a comparação dos modelos ajustados, provando ser uma alternativa interessante e robusta para o ajuste e predição de dados meteorológicos.

2023
Descrição
  • ISOLINA APARECIDA VILAS BÔAS
  • MODELOS NÃO LINEARES NA DESCRIÇÃO DO ACÚMULO DE NUTRIENTES E MATÉRIA SECA EM HÍBRIDO DE MILHO

  • Data: 19/12/2023
  • Mostrar Resumo
  • Em diversas situações, descrever com precisão os fenômenos em análise pode ser um desafio. A aplicação de modelos não lineares representa um significativo avanço na análise de dados, afastando-se dos métodos lineares tradicionais e considerando cuidadosamente as complexidades inerentes presentes em diversos fenômenos. Portanto, utilização de modelos não lineares na análise de dados visa capturar efetivamente essa complexidade, fornecendo informações mais precisas e abrangentes sobre o fenômeno em estudo. Nesta tese, foram conduzidos três estudos com o objetivo de estudar as curvas de crescimento de híbrido de milho, com base no acúmulo de matéria seca e de nutrientes nos diversos estádios fenológicos obtidos em um experimento com duas cultivares com características distintas. Foram utilizados os modelos não lineares: Brody, Gompertz, logístico, Meloum I, Meloun II, Michaelis Mentem, Michaleis Mentem modificado, Mitscherlich, Richards, Schnute, von Bertalanffy e Weibull. No primeiro estudo a análise foi realizada utilizando os doze modelos não lineares para descrever o acúmulo de matéria seca no híbridos de milho GNZ2004 e P30F33. No segundo estudo, foram considerados os dados de acúmulo dos macronutrientes (nitrogênio, fósforo, potássio, cálcio, magnésio e enxofre) nos dois híbridos de milho. O terceiro estudo apresenta o uso dos modelos não lineares aplicados aos dados de acúmulo de micronutrientes ( boro, cobre, manganês e zinco). A análise foi conduzida utilizando o método de mínimos quadrados e o algoritmo de convergência de Gauss-Newton. A seleção dos modelos mais adequados baseou-se nos seguintes avaliadores de qualidade de ajuste: coeficiente de determinação ajustado (), desvio padrão residual (DPR), erro quadrático médio de predição (MEP), índice assintótico (IA), critério de informação de Akaike (AIC), critério de informação Bayesiano (BIC), e medidas de curvatura de Bates e Watts. Os resultados dessa tese propiciam a análise de regressão não linear explorando alternativas além dos modelos não lineares comumente utilizados, podendo ser estendidos para outros híbridos de milho e também para outras culturas.

  • DULCÍDIA CARLOS GUEZIMANE ERNESTO
  • TRANSFORMADA DE WAVELET DISCRETA NÃO DECIMADA APLICADA NA ANÁLISE DE SIMILARIDADES DE GENOMAS DE VÍRUS DAS FAMÍLIAS CORONAVIRIDAE E PARAMYXOVIRIDAE

  • Data: 18/12/2023
  • Mostrar Resumo
  • O presente trabalho tem como objetivo  geral analisar alguns genomas da família Coronaviridae e da família Paramyxoviridae buscando similaridades por meio de decomposição do sinal com o apoio das técnicas da transformada discreta não decimada da wavelet de Daubechie. E tem por objetivo específico aplicar os métodos R/S, Peng, variação agregada, variação agregada diferenciada, e o método
    dos momentos absolutos para analisar similaridades entre os genomas da família
    de Coronaviridae e Paramyxoviridae.

  • DULCÍDIA CARLOS GUEZIMANE ERNESTO
  • TRANSFORMADA DE WAVELET DISCRETA NÃO DECIMADA PARA O AGRUPAMENTO DE GENOMAS DE VÍRUS DAS FAMÍLIAS CORONAVIRIDAE E PARAMYXOVIRIDAE

  • Data: 18/12/2023
  • Mostrar Resumo
  • O presente trabalho tem como objetivo  geral analisar alguns genomas da família Coronaviridae e da família Paramyxoviridae buscando similaridades por meio de decomposição do sinal com o apoio das técnicas da transformada discreta não decimada da wavelet de Daubechie. E tem por objetivo específico aplicar os métodos R/S, Peng, variação agregada, variação agregada diferenciada, e o método
    dos momentos absolutos para analisar similaridades entre os genomas da família
    de Coronaviridae e Paramyxoviridae.

  • MATEUS SANTOS PEIXOTO
  • MODELAGEM TOBIT EM DADOS DE ÁREA DOS CASOS NOTIFICADOS POR TUBERCULOSE NOS MUNICÍPIOS DE MINAS GERAIS

  • Data: 28/11/2023
  • Mostrar Resumo
  • A tuberculose é uma doença infecciosa que ainda é um grande problema de saúde pública em muitos países, incluindo o Brasil. A análise espacial de dados de tuberculose pode ajudar a entender melhor a distribuição geográfica da doença e identificar áreas com maior risco de transmissão. A análise de dados de área é uma abordagem útil para essa análise, pois permite investigar a relação entre a ocorrência de casos de tuberculose e características geográficas, socioeconômicas e demográficas da população. A análise de dados de área, onde a variável resposta é não normal, pode ser realizada utilizando o modelo de regressão espacial tobit. Este modelo permite analisar a relação entre a taxa de incidência de tuberculose e fatores de riscos como IDH, PIB, etc dos municípios. Este modelo também considera a autocorrelação espacial nos dados, ou seja, a dependência entre as observações em municípios vizinhos. Espera-se que os resultados obtidos pelo ajuste do modelo possam contribuir significativamente para o monitoramento e controle da tuberculose no Estado de Minas Gerais.

  • DANIELA APARECIDA MAFRA
  • Proposição de uma família de parametrizações baseada em polinômios de hermite adaptados para delineamentos de misturas com aplicações na análise de efeitos aleatórios direcionais de componentes de blends de cafés.

  • Data: 29/06/2023
  • Mostrar Resumo
  • Na literatura modelos para delineamentos de misturas, usualmente, são conhecidos pelas parametrizações de Scheffé e Kronecker. O objetivo principal desta tese, consiste em formalizar uma familia de parametrizações, fundamentadas, nos polinômios ortogonais de hermite. Com este desenvolvimento, surge um parâmetro adicional, no preditor linear, sendo este, definido como parâmetro pertubado, no sentido de gerar oscilações entre os perfis de cada de componente envolvido na mistura. Tais oscilações, são perceptíveis na construção do gráfico Trace-Plot. Como validação desta metodologia, inúmeros cenários são estudados por meio de técnicas de simulação monte carlo, e por fim, uma aplicação a dados reais em uma análise dos efeitos dos componentes de uma mistura de cafés com diferentes variedades e qualidade.

  • DANIELA APARECIDA MAFRA
  • POLINÔMIOS DE HERMITE PARA DETECÇÃO DE OSCILAÇÕES NOS EFEITOS DIRECIONAIS NO ESPAÇO SIMPLEX EM ANÁLISE SENSORIAL DE BLENDS DE CAFÉS.

  • Data: 29/06/2023
  • Mostrar Resumo
  • Na literatura modelos para delineamentos de misturas, usualmente, são conhecidos pelas parametrizações de Scheffé e Kronecker. O objetivo principal desta tese, consiste em formalizar uma familia de parametrizações, fundamentadas, nos polinômios ortogonais de hermite. Com este desenvolvimento, surge um parâmetro adicional, no preditor linear, sendo este, definido como parâmetro pertubado, no sentido de gerar oscilações entre os perfis de cada de componente envolvido na mistura. Tais oscilações, são perceptíveis na construção do gráfico Trace-Plot. Como validação desta metodologia, inúmeros cenários são estudados por meio de técnicas de simulação monte carlo, e por fim, uma aplicação a dados reais em uma análise dos efeitos dos componentes de uma mistura de cafés com diferentes variedades e qualidade.

  • CARLOS ANTONIO ZARZAR
  • ESTATÍSTICA APLICADA À AQUICULTURA, DESAFIOS E MÉTODOS PARA A MODELAGEM DE CRESCIMENTO DO CAMARÃO CINZA.

  • Data: 23/06/2023
  • Mostrar Resumo
  • A aquicultura (cultivo de organismos aquáticos) no Brasil vem se destacando no agronegócio nos últimos anos, apesar de ser um setor relativamente recente quando comparado com a bovi nocultura e avicultura. A produção aquícola do Brasil em 2020 segundo o IBGE foi de 629,3 mil toneladas. Dada a vasta rede hidrográfica (75 mil km IBGE) em rios, lagos e lagos (cerca de 167 mil km2), além da extensão da costa litorânea (7.367 km do Amapá ao Rio Grande do Sul), aliado com o clima favorável, tornam o Brasil um país com grande potencial para o setor. Para destacar a aquicultura frente o mercado competitivo (nacional e internacional) é necessário acompanhar a evolução dos novos recursos estatísticos e da inteligência artificial na busca de produções mais eficientes. Dentro do universo empresarial aquícola a receita, os custos e lucros são baseados no peso da proteína animal vendida no mercado. Portanto a modelagem de crescimento de organismos cultivados é utilizada como ferramenta de gestão da produção. Alguns dados de crescimento na aquicultura possuem características peculiares que geram consequências na análise e modelagem. Geralmente são incompletos ou limitados. Isso significa que os dados são restritos a poucas observações e muitas vezes são limitados a observações abaixo do ponto de inflexão da curva sigmoide devido a estratégia econômica das fazendas ou simplesmente a exigência do mercado consumidor. Essa limitação dos dados observados presumivelmente causa viés na inferência de modelos não lineares. Por meio de simulações de crescimento do camarão com dados limitados sintetizados e comparações de curvas de crescimento de animais selvagens oriundos da pesca, os resultados apoiaram essa hipótese. E como consequência foi proposto um método para correção deste possível viés através de uma abordagem bayesiana hierárquica. Dados reais foram utilizados para compará-los com a abordagem frequentista tradicional utilizada. A sensibilidade na detecção de tratamento (hierarquia em nível de tanque ou ciclo produtivo) pode tornar o novo método uma poderosa ferramenta de gerenciamento na produção animal e em ensaios projetados para pesquisa científica. No segundo capítulo, com base na metodologia bayesiana proposta, seis modelos não lineares hierárquicos   foram avaliados para modelagem do crescimento do camarão cinza (Litopenaeus vannamei) (Morgan-Mercer-Flodin, Michaelis-Menten, Weibull, von Bertalanffy, Gompertz e Logístico) e ajustados a dados reais da Empresa. A equação de crescimento de Weibull se destacou (WAIC= 2661.3±77.4, LOO-IC= 2705.2±80.1). O modelo final foi validado mostrando uma precisão de 95,76% e 85,71% nos níveis hierárquicos de lagoa e ciclo de produção, respectivamente. Finalmente, uma análise de sensibilidade foi realizada para detectar diferenças sutis entre cultivos aparentemente semelhantes e concluímos que a nova abordagem é muito eficiente para comparação de tratamentos quando contraposto a índices usualmente praticados nas fazendas comerciais de camarão. Dado a complexidade de toda teoria e dos modelos na utilização prática da pesquisa no campo, um aplicativo web de gestão de ração (apresentado no apêndice) foi desenvolvido e disponível aos produtores interessados encapsulando toda informação gerada nas pesquisas e dando uma perspectiva prática-extensionista sobre a tese.

  • YHAN CARLOS ROJAS DE LA CRUZ
  • ANÁLISE GENÉTICA DE CURVAS DE CRESCIMENTO DE BOVINOS DA RAÇA BRAHMAN POR MÉTODOS DE DUAS ETAPAS E DE ANÁLISE CONJUNTA.

  • Data: 21/06/2023
  • Mostrar Resumo
  • O objetivo deste estudo foi utilizar dois métodos de análise genética de curvas de crescimento (método de dois estágios e análise conjunta) utilizando modelos não lineares que melhor descrevem o crescimento de bovinos da raça Brahman. A estimação dos componentes de variância dos parâmetros dos modelos de Brody, Logístico, de von Bertalanffy e de Gompertz, pelo método de duas etapas foi realizada usando o método de máxima verossimilhança restrita (REML), com o software BLUPF90. Para o método de análise conjunta foram utilizados amostragem de Gibbs e Metropolis-Hasting, utilizando um script desenvolvido no software R. Os valores de herdabilidade estimados pelo método de duas etapas foram 0,41, 0,09 e 0,65  para os parâmetros a, b e k , respectivamente. Os valores correspondentes do método de análise conjunta foram 0,50, 0,51 e 0,52 para o parâmetro a, b e k, respectivamente. As estimativas de herdabilidade tenderam a ser maiores pelo método de análise conjunta do que aquelas obtidas pelo método de duas etapas, exceto para o parâmetro k. Os resultados obtidos revelam que o método de duas etapas apresentou uma variância residual superior à variância residual obtida pelo método de análise conjunta.

  • HAIANY APARECIDA FERREIRA
  • OTIMIZAÇÃO DE FATORES PARA A CLONAGEM EM COFFEA ARÁBICA UTILIZANDO CORRELAÇÃO CANÔNICA EM EXPERIMENTOS ROTACIONAIS SUBDIVISÍVEIS EM BLOCOS.

  • Data: 23/05/2023
  • Mostrar Resumo
  • A blocagem de delineamentos rotacionais dependendo do número de fatores e repetições, pode resultar em delineamentos quase ortogonais e diante desta situação, tem-se como alternativa o uso de delineamentos ótimos, que minimizem a variância das estimativas dos parâmetros do modelo a ser adotado. Em uma abordagem multivariada, a consideração da estrutura experimental torna-se mais complexa, uma vez que, matrizes de covariâncias entre os níveis dos fatores devem ser analisadas. Seguindo, estas argumentações, este trabalho tem por objetivo avaliar a eficiência dos delineamentos equiradiais subdivisíveis em blocos, com análise dos índices de redundância e descrição da porcentagem da variablidade no primeiro par canônico de variáveis. Para isto, utilizou-se simulações monte carlo em diferentes cenários, envolvendo, tamanhos amostrais (N), heterogeneidade entre as matrizes de covariâncias (δ ) e especificação das coordenadas polares e esféricas. Concluiu-se que, o delineamento equiradial no formato de hexágono, combinado com o composto central rotacional, apresentou melhores índices de eficiência. Em relação a porcentagem de variação explicada pelo primeiro par canônico e os índices de redundância, os resultados foram similares em relação ao uso das coordenadas polares e esféricas, para todas as situações envolvendo grau de heterogeneidade entre as matrizes de covariâncias e tamanhos amostrais. Por fim, realizar uma aplicação em dados de segmentos caulinares de uma progênie coffea arabica.
  • RENATA APARECIDA CINTRA
  • Procedimentos de comparações múltiplas para modelos latentes assimétricos com respostas ordinais via bootstrap

  • Orientador : DANIEL FURTADO FERREIRA
  • Data: 28/04/2023
  • Mostrar Resumo
  • O modelo de chances proporcionais é amplamente usado para comparar a eficácia de tratamentos quando as respostas são categoricamente ordenadas. No entanto, esse modelo tem se mostrado inadequado quando a suposição de chances proporcionais é inválida, principalmente porque é incapaz de controlar a taxa de erro tipo I em tais circunstâncias. Para resolver esse problema, o modelo latente normal demonstrou ser superior ao modelo de chances proporcionais. No entanto, sua aplicação é limitada para comparar tratamentos com distribuições subjacentes semelhantes, com possíveis diferenças apenas em suas médias e variâncias. Quando as distribuições subjacentes são muito diferentes em assimetria, ambos os procedimentos mencionados sofrem com a inflação indesejável da taxa de erro tipo I.  Lu, Poon e Cheung (2016) forneceram uma solução viável que se baseia no uso da distribuição latente Weibull. O modelo proposto é capaz de controlar a taxa de erro tipo I independentemente do grau de assimetria das respostas dos tratamentos. Além disso, o poder do teste superou o do modelo latente normal em respostas com maior assimetria. No entanto, as estatísticas possuem uma estrutura de correlação e as probabilidades são calculadas numericamente, de modo que há a necessidade de se resolver um problema com integrações múltiplas de grande ordem da normal multivariada. Neste estudo, foi incorporado o uso de bootstrap paramétrico como alternativa para evitar essas integrações numéricas. Quatro procedimentos de teste foram derivados: dois para comparações múltiplas com um controle e dois para comparações de tratamentos pareados, baseados em modelos latentes Weibull e Gumbel. Os testes controlaram a taxa de erro tipo I e apresentaram poder similar aos modelos propostos inicialmente pelos autores. A grande vantagem é que o uso do bootstrap simplifica a obtenção do valor crítico, tornando o método mais acessível para utilização rotineira.

  • LUIZ OTAVIO DE OLIVEIRA PALA
  • UM ESTUDO DE MODELOS PARA SÉRIES TEMPORAIS DE CONTAGEM.

  • Data: 27/04/2023
  • Mostrar Resumo
  • A análise de séries temporais a partir dos modelos da classe ARMA(p, q) é amplamente adotada em estudos aplicados. Entretanto, séries de contagem necessitam de certa atenção pois podem apresentar características estilizadas, como alta dispersão e excesso de zeros, que devem ser levadas em conta pelo pesquisador. Ampliações da classe ARMA(p, q) para a modelagem de séries de contagem têm sido propostas na literatura estatística e talvez a mais difundida seja a GARMA(p, q), proposta em 2003, baseada na teoria dos modelos lineares generalizados. Nesta tese, foram realizados três ensaios com o objetivo de estudar e estender alguns modelos da classe GARMA(p, q), a partir de diferentes distribuições e formas da estrutura de dependência temporal ao analisar contagens. No primeiro ensaio, realizou-se a análise utilizando as distribuições Poisson, a Binomial negativa e a Poisson inversa Gaussiana, assumindo que o parâmetro de dispersão da Binomial negativa é desconhecido e trazendo uma ampliação para o uso da Poisson inversa Gaussiana. No segundo ensaio, foram consideradas as versões zero-ajustadas das distribuições utilizadas no primeiro ensaio, estendendo a estrutura de dependência temporal de modo a possibilitar o uso de componentes sazonais e levar em conta fenômenos com muitos zeros. No terceiro ensaio, propôs-se o uso da distribuição Poisson zero-ajustada cujos parâmetros variam no tempo, permitindo a realização de previsões da série temporal e da probabilidade de contagens iguais a zero. Adotou-se a inferência Bayesiana dos modelos estudados nesta tese, sendo avaliados computacionalmente e utilizados em aplicações. Ademais, entende-se as ampliações da classe GARMA(p, q) para versões que lidem com fenômenos sazonais e/ou com excesso de zeros e a adoção do algoritmo Monte Carlo Hamiltoniano para a amostragem da posteriori conjunta no terceiro ensaio são as principais contribuições deste trabalho. Os resultados dessa tese propiciam a análise de séries de contagem visando alternativas além da tradicional classe ARMA(p, q) e podem ser ampliados para outras distribuições de contagem e métodos de estimação.

  • ROGERSON ALEXANDRE MARTINS DO CARMO E SOUZA
  • PREVISÃO DE SÉRIES TEMPORAIS COM MÁQUINA DE SUPORTE VETORIAL.

     
  • Data: 16/03/2023
  • Mostrar Resumo
  • A presente dissertação utiliza a técnica de Máquinas de Vetores de Suporte combinado à análise de Componentes Principais e Componentes Independentes na avaliação de séries temporais financeiras. Este assunto é de grande interesse de pesquisadores, investidores e instituições financeiras que quererem compreender o comportamento/influência na tomada de decisão no mercado de preços. Sabe-se que a combinação de análise de Componentes Principais e Independentes conjuntamente com as Máquinas de Vetores de Suporte podem garantir melhores resultados para a predição de séries temporais financeiras, uma vez que podem fazer uso de vários indicadores comuns na análise técnica. Como resultados, verificou-se que a metodologia proposta conseguiu predizer o comportamento das séries de preços do Bradesco e da Vale, utilizadas neste trabalho. 

     
  • LAÍLA LUANA CAMPOS
  • PROPOSTA DE TESTES DE ESFERICIDADE ROBUSTOS QUANTO A PRESENÇA DE OUTLIERS E A ALTA DIMENSIONALIDADE DOS DADOS.


  • Data: 15/03/2023
  • Mostrar Resumo
  • Para a hipótese de esfericidade, propõe-se o estudo de doze testes para verificar a robustez quanto a presença de outliers e à a alta dimensionalidade dos dados. Como o teste da razão de verossimilhanças se degenera quando p ≥ n, aplica-se o estudo do teste proposto por John (1971), a qual é robusta quando p ≥ n, e de suas modificações, em que se substitui a matriz de covariâncias pelo seu estimador robusto comedian (JAsR), sua versão bootstrap (JB) e a modificação da versão bootstrap, a qual substitui a matriz de covariâncias amostral pelo seu estimador robusto comedian (JBR). É estudado também o teste da razão de verossimilhanças (LRTAs), assim como o LRTAs com a estatística de teste modificada, seguindo o mesmo critério da estatística J: LRTAsR, LRT B e LRT BR. É utilizada ainda uma adaptação da estatística do teste de máximo proposto por Chen et al. (2020): TAs, TAsR, T B e T BR. São utilizadas as distribuições normal e normal contaminada com 30% de contaminação. Conclui-se que as versões bootstrap dos testes apresentam um desempenho melhor, sendo robustas quanto à presença de outliers, sendo que o JB e o JBR são, ainda, robustos em relação à alta dimensionalidade dos dados.

  • CLODOALDO TEODÓSIO SANTANA DA SILVA
  • UTILIZAÇÃO DE MODELOS DE REGRESSÃO PARA DADOS CIRCULARES COM OU SEM A PRESENÇA DE CENSURA.

  • Data: 24/02/2023
  • Mostrar Resumo
  • Dados circulares estão presentes em diversos fenômenos, na orientação do voo dos pássaros, direção dos ventos, além disso algumas medidas podem ser transformadas em angulares, como os horários, meses e dias da semana. Através da estatística circular é possível fornecer resultados mais adequados para tais situações. Os modelos de regressão adaptados para a estatística circular podem ser classificados como linear-circular, circular-linear e circular-circular, de acordo com a característica das variáveis explicativas ou resposta estarem situadas na reta real ou em circunferência de um círculo unitário. Neste trabalho, foi realizada inicialmente uma revisão dos principais aspectos da estatística circular e seus modelos de regressão, realizando-se a utilização em banco de dados provenientes de dados de coordenadas geomgráficos e dados meteorológicos. Por fim, fez-se uma proposta de utilização de um modelo de regressão cuja resposta é uma medida situada na reta real (linear) e a variável explicativa é uma medida ângular (circular) no contexto da análise de sobrevivência, com o objetivo de se estudar o tempo para o início de atendimento às vítimas de acidentes em rodovias no estado de Minas Gerais. O Modelo log-normal foi utilizado para modelar a variável resposta, sendo a covariável circular com censura. O ajuste mostrou-se satisfatório, evidenciando que a estatística para dados circulares associada a analise de sobrevivência é uma excelente ferramenta para este tipo de estudo.

  • FELIPE AUGUSTO FERNANDES
  • MODELO DE VON BERTALANFFY EM DIFERENTES APLICAÇÕES

  • Data: 24/02/2023
  • Mostrar Resumo
  • Na natureza existem vários fenômenos cujos quais pesquisadores têm o interesse de estudar e entender como foi seu desenvolvimento, absorvendo o maior grau de informações possíveis. Nesse contexto, utiliza-se muito a modelagem estatística, sendo a regressão linear ou não linear as mais utilizadas. Apesar da regressão não linear ser mais complexa devido as questões de estimações de parâmetros, possui a vantagem de ser um modelo mais parcimonioso pois, em geral, possuem menor número de parâmetros, em que estes possuem significado prático ou biológico. Neste estudo, serão exploradas diferentes aplicações do modelo não linear de von Bertalanffy, podendo utilizar diferentes coeficientes alométricos ou parametrizações. O modelo de von Bertalanffy inicialmente foi utilizado na descrição do crescimento de peixes e crustáceos, contudo, atualmente este modelo vem sendo utilizado em diversas áreas, de ciências agrárias à biologia. Uma das aplicações propostas é no estudo da descrição do crescimento de coelhos mestiços utilizando distintas metodologia de coleta dos dados, a longitudinal e a transversal, em que a primeira é um coleta do peso do mesmo animal ao longo do tempo e a segunda uma coleta da variável em estudo (peso) em um único dia, utilizando animais semelhantes de idades diferentes. A segunda aplicação foi a utilização do modelo não linear de von Bertalanffy na descrição da volatilização de amônia em fertilizantes nitrogenados convencionais e de eficiência aumentada do cafeeiro. Para a terceira aplicação, utilizou-se técnicas de regressão não linear quantílica e análise de possíveis outleirs como solução para os desvios de pressupostos dos resíduos da aplicação anterior.

  • ÉDIPO MENEZES DA SILVA
  • USO DE MODELOS MISTOS E PONTOS CRÍTICOS EM DADOS DE CRESCIMENTO DE FRUTOS

  • Data: 23/02/2023
  • Mostrar Resumo
  • *****

    Os modelos não lineares de crescimento vem ganhando destaque na mídia nacional e internacional desde o surgimento do novo Corona Vírus no final de 2019, pois a média móvel do número de casos segue um formato sigmóide e diversos autores estão usando esses modelos para tentar entender tal comportamento. O crescimento de seres vivos possuí o formato em "S" ou sigmoidal. Alguns autores usam os modelos lineares para caracterizar esse crescimento, perdendo assim, as vantagens que os modelos não lineares possuem. Os modelos lineares são mais simples de serem estimados, devido esses não necessitarem de métodos iterativos, porém, os modelos não lineares de crescimento possuem diversas vantagens em relação aos lineares, como por exemplo, a parcimônia, interpretação biológica dos parâmetros e possibilidade de se extrapolar as inferência além do suporte das variáveis. Além das vantagens citadas anteriormente, existem outras características a ser exploradas que são os pontos críticos. Os pontos críticos são encontrados fazendo as derivadas, de primeira a quarta ordem dos modelos em relação a variável independente (geralmente sendo o tempo) e esses pontos são: ponto de aceleração máxima, ponto de inflexão, ponto de desaceleração máxima e ponto de desaceleração assintótica. Além dos pontos críticos, a variação entre os indivíduos pode e deve ser explorada com o intuito de se verificar como cada indivíduo cresce ao longo do tempo, verificando assim, se existe um ou mais parâmetros com a necessidade de se acrescentar efeito aleatório, ao acrescentar efeito aleatório em algum parâmetro do modelo, o mesmo é definido assim como modelo de efeito misto. Com isso, o objetivo do presente estudo é estimar os pontos críticos dos modelos não lineares de crescimento e verificar a variabilidade entre os indivíduos para o crescimento em um único estagio de desenvolvimento e em dois estádios de desenvolvimento, aplicando a dados de crescimento de Amora Preta e coco Anão Verde. Os pontos críticos foram estimados e indicados no gráfico da taxa de crescimento dos modelos, demonstrando assim, onde cada ponto crítico ocorre. A modelagem mista para a cultivar Choctaw foi feita com o modelo logístico simples com efeito aleatório nos parâmetros   e   para o diâmetro e o duplo logístico misto com efeito aleatório nos parâmetros   e  para o comprimento.

  • VICTOR FERREIRA DA SILVA
  • PROPOSTA DE UM TESTE PARA VERIFICAR A HIPOTESE DE INDEPENDECIA ENTRE PONTOS E MARCAS QUANTITATIVAS DE UM PROCESSO PONTUAL MARCADO EM REDE LINEAR

  • Data: 20/01/2023
  • Mostrar Resumo
  • Processos pontuais marcados são modelos estocásticos usados para analisar dados de um número finito de eventos localizados no espaço e tempo. Esses tipos de dados geralmente associam medições (marcas) com localizações (pontos) de eventos. Métodos para análise de dados de processos pontuais marcadxos requerem dependência entre pontos e marcas, o que, nem sempre é observado na prática. Esta tese apresenta duas quantidades para caracterízar processos pontuais marcados estacionários e isotrópicos. Esses quantidades (E(h) e V(h)) são funções da distância h entre pontos e denotam a esperança e a variância condicional condicional de uma marca quantitativa, respectivamente, dado que há um outro ponto do processo localizado até a distância h. Essas funções foram propostas por Schlather et al. (2004) para processos pontuais marcados no plano. Nesta tese essas funçoes sâo adaptadas para redes lineares e são utilizadas na construção de um teste para verificar a hipótese de independência entre pontos e marcas quantitativas. O teste de hipótese é aplicado em conjuntos típicos de dados espaciais em redes llineares (ex. ruas, rios, etc.).

  • ÉDIPO MENEZES DA SILVA
  • USO DE MODELOS MISTOS E PONTOS CRÍTICOS EM DADOS DE CRESCIMENTO DE FRUTOS

  • Data: 17/01/2023
  • Mostrar Resumo
  • *****

    Os modelos não lineares de crescimento vem ganhando destaque na mídia nacional e internacional desde o surgimento do novo Corona Vírus no final de 2019, pois a média móvel do número de casos segue um formato sigmóide e diversos autores estão usando esses modelos para tentar entender tal comportamento. O crescimento de seres vivos possuí o formato em "S" ou sigmoidal. Alguns autores usam os modelos lineares para caracterizar esse crescimento, perdendo assim, as vantagens que os modelos não lineares possuem. Os modelos lineares são mais simples de serem estimados, devido esses não necessitarem de métodos iterativos, porém, os modelos não lineares de crescimento possuem diversas vantagens em relação aos lineares, como por exemplo, a parcimônia, interpretação biológica dos parâmetros e possibilidade de se extrapolar as inferência além do suporte das variáveis. Além das vantagens citadas anteriormente, existem outras características a ser exploradas que são os pontos críticos. Os pontos críticos são encontrados fazendo as derivadas, de primeira a quarta ordem dos modelos em relação a variável independente (geralmente sendo o tempo) e esses pontos são: ponto de aceleração máxima, ponto de inflexão, ponto de desaceleração máxima e ponto de desaceleração assintótica. Além dos pontos críticos, a variação entre os indivíduos pode e deve ser explorada com o intuito de se verificar como cada indivíduo cresce ao longo do tempo, verificando assim, se existe um ou mais parâmetros com a necessidade de se acrescentar efeito aleatório, ao acrescentar efeito aleatório em algum parâmetro do modelo, o mesmo é definido assim como modelo de efeito misto. Com isso, o objetivo do presente estudo é estimar os pontos críticos dos modelos não lineares de crescimento e verificar a variabilidade entre os indivíduos para o crescimento em um único estagio de desenvolvimento e em dois estádios de desenvolvimento, aplicando a dados de crescimento de Amora Preta e coco Anão Verde. Os pontos críticos foram estimados e indicados no gráfico da taxa de crescimento dos modelos, demonstrando assim, onde cada ponto crítico ocorre. A modelagem mista para a cultivar Choctaw foi feita com o modelo logístico simples com efeito aleatório nos parâmetros   e   para o diâmetro e o duplo logístico misto com efeito aleatório nos parâmetros   e  para o comprimento.

  • LUCAS FERREIRA ROSA
  • COMPARANDO FORMAS DE ANÁLISE PARA DADOS CENSURADOS POR RAZÕES PRÁTICAS EM PROGRAMAS DE MELHORAMENTO VEGETAL.

  • Data: 16/01/2023
  • Mostrar Resumo
  • Experimentos de melhoramento estão sujeitoa à ocorrência de dados censurados por razões práticas da pesquisa agronômica de campo ou laboratorial, como limiares de detecção dados por aparelhos além dos quais não se registram valores. Nestes casos, pode-se supor que há uma distribuição subjacente contínua que contém  estes limiares e desta forma investigar as consequências disto para ajustar as distribuições associadas às populações experimentais. Este trabalho tem como objetivo desenvolver um método de análise para censura à esquerda desenvolvendo um algoritmo para a previsão condicional usando a amostragem Gibbs e verificar suas propriedades em comparação a métodos usuais de análise de ensaios deste tipo em um exemplo simulado. Para tanto, foi simulado um experimento em blocos incompletos balanceados  organizados em látice quadrado (v = 11^2, r = 3, k = 11, b = 33, l = 1). São apresentados os resultados básicos de quatro formas de análise: Dados completos "DC" (caso fosse conhecidas todas as observações); Censura zero "C0" (considerando zero para as censuras); Censura à esquerda "CE"  (considerando observações perdidas na censura);  Previsão Condicional "PC"  (análise com imputação condicional dos dados censurados) em dois cenários, que foram: 1) com baixa taxa de censura (\sim 30%)  e 2) alta taxa de censura (\sim 50%). As análises foram comparadas à análise dos dados completos, tida como padrão ouro.  Foram verificadas a acurácia, a precisão e o viés na estimação dos parâmetros genéticos (componenetes de variância e herdabilidades). Foram também  calculadas as correlações entre os valores originalmente simulados com as observações que foram censuradas. Por fim, em cada análise, foram calculadas as correlações de Pearson, Spearman e Kendall entre os valores genéticos estimados e seus respectivos valores paraméticos. Os resultados mostraram que em ambos os cenários a análise "PC" foi a mais precisa para fins de seleção, apresentando correlaçãos dos efeitos de cruzamentos com o efeitos paramétricos próximos da análise sem censura. Além disso, o algoritmo proposto gerou cadeias nas quais os valores simulados são frequentes na distribuição marginal \textit{a posteriori}. Note que as formas usuais de análise ("C0" e "CE") apresentariam correlação nula entre os valores tomados como zero e os valores paramétricos. A análise "CE" foi a pior em ambos os cenários e deve ser evitada por subestimar as estimativas de parâmetros genéticos (especialmente variâncias e herdabilidades) e apresentar baixa correlação, prejudicando a seleção. Para o cenário 1), com baixo grau de desbalanceamento a análise "C0" mostrou-se uma alternativa interessante, mas com uma piora considerável com o aumento da censura. A análise proposta levou a declarações mais difíceis de interpretar em termos de variâncias e  herdabilidades, sendo no entanto a com melhores resultados práticos, sendo a mais recomendada

  • LUCAS FERREIRA ROSA
  • Comparando formas de análise para dados censurados por razões práticas em programas de melhoramento vegetal

  • Data: 16/01/2023
  • Mostrar Resumo
  • Experimentos de melhoramento estão sujeitoa à ocorrência de dados censurados por razões práticas da pesquisa agronômica de campo ou laboratorial, como limiares de detecção dados por aparelhos além dos quais não se registram valores. Nestes casos, pode-se supor que há uma distribuição subjacente contínua que contém  estes limiares e desta forma investigar as consequências disto para ajustar as distribuições associadas às populações experimentais. Este trabalho tem como objetivo desenvolver um método de análise para censura à esquerda desenvolvendo um algoritmo para a previsão condicional usando a amostragem Gibbs e verificar suas propriedades em comparação a métodos usuais de análise de ensaios deste tipo em um exemplo simulado. Para tanto, foi simulado um experimento em blocos incompletos balanceados  organizados em látice quadrado (v = 11^2, r = 3, k = 11, b = 33, l = 1). São apresentados os resultados básicos de quatro formas de análise: Dados completos "DC" (caso fosse conhecidas todas as observações); Censura zero "C0" (considerando zero para as censuras); Censura à esquerda "CE"  (considerando observações perdidas na censura);  Previsão Condicional "PC"  (análise com imputação condicional dos dados censurados) em dois cenários, que foram: 1) com baixa taxa de censura (\sim 30%)  e 2) alta taxa de censura (\sim 50%). As análises foram comparadas à análise dos dados completos, tida como padrão ouro.  Foram verificadas a acurácia, a precisão e o viés na estimação dos parâmetros genéticos (componenetes de variância e herdabilidades). Foram também  calculadas as correlações entre os valores originalmente simulados com as observações que foram censuradas. Por fim, em cada análise, foram calculadas as correlações de Pearson, Spearman e Kendall entre os valores genéticos estimados e seus respectivos valores paraméticos. Os resultados mostraram que em ambos os cenários a análise "PC" foi a mais precisa para fins de seleção, apresentando correlaçãos dos efeitos de cruzamentos com o efeitos paramétricos próximos da análise sem censura. Além disso, o algoritmo proposto gerou cadeias nas quais os valores simulados são frequentes na distribuição marginal \textit{a posteriori}. Note que as formas usuais de análise ("C0" e "CE") apresentariam correlação nula entre os valores tomados como zero e os valores paramétricos. A análise "CE" foi a pior em ambos os cenários e deve ser evitada por subestimar as estimativas de parâmetros genéticos (especialmente variâncias e herdabilidades) e apresentar baixa correlação, prejudicando a seleção. Para o cenário 1), com baixo grau de desbalanceamento a análise "C0" mostrou-se uma alternativa interessante, mas com uma piora considerável com o aumento da censura. A análise proposta levou a declarações mais difíceis de interpretar em termos de variâncias e  herdabilidades, sendo no entanto a com melhores resultados práticos, sendo a mais recomendada

  • MIGUEL CARVALHO NASCIMENTO
  • PROPOSIÇÃO DE DOIS TESTES, SENDO UM ASSINTÓTICO E OUTRO BOOTSTRAP, PARA COMPARAÇÕES ENTRE DOIS VETORES DE MÉDIAS INDEPENDENTES EM ALTA DIMENSIONALIDADE.

  • Data: 16/01/2023
  • Mostrar Resumo
  • A inferência relativa às comparações de vetores de médias entre duas populações independentes é de grande interesse nas áreas aplicadas, principalmente em cenários que as análises de dados com alta dimensionalidade são comuns. Em casos de baixa dimensionalidade com problema de Behrens-Fisher multivariado, existem inúmeras soluções, mas a maioria das estatísticas dos testes possuem distribuição assintótica. Nos procedimentos multivariados existe um problema que surge quando o número de variáveis, p, é maior ou igual ao tamanho da amostra, n, neste caso, não é possível utilizar dos poucos métodos existentes, em razão deles dependerem da inversa da matriz de covariâncias amostral que, nesta situação (p≥n), não pode ser obtida, uma vez que a matriz de covariâncias é singular. Na maioria dos casos, os testes assintóticos são muito liberais, principalmente em pequenas amostras e, especificamente, no caso multivariado, quando a dimensionalidade é alta. O método bootstrap é um dos principais métodos computacionais intensivos que, dentre as principais vantagens, está a não necessidade do conhecimento da distribuição de probabilidade populacional. Além disso, quando se viola as condições assumidas para a aplicação de um teste, com o bootstrap, o problema se torna extremamente simples de ser contornado. Com base nisso, o presente trabalho teve como objetivo propor testes de comparações multivariadas entre dois vetores de médias independentes, TAM e sua versão bootstrap (TB), em alta dimensionalidade, para dados balanceados ou não, não-normais e normais sob o problema de Behrens-Fisher multivariado. O desempenho destes testes foi avaliado e comparado com o dos testes indicados pela literatura, sendo estes, T2 de Hotelling, o teste modificado de Nel e Merwe (MNV) proposto por Krishnamoorthy e Yu e o teste proposto por Ahmad, utilizando simulação Monte Carlo. Foram considerados o poder e a taxa de erro tipo I como medidas avaliativas. As comparações foram conduzidas em diversos cenários como, casos de homocedasticidade e heterocedasticidade das matrizes de covariâncias, em baixa e alta dimensionalidade para distribuições multivariadas normal, t com 7 graus de liberdade e uniforme (0, 1), ou seja, cenários em que se violam as condições assumidas para aplicação da maioria dos testes. Os resultados mostraram que o teste TAM, em geral, foi robusto, superando seus concorrentes na maioria das situações avaliadas, já o teste usando o método bootstrap foi efetivo em situações de homogeneidade das matrizes de covariâncias e para o caso de heterocedasticidade, quando as matrizes são equicorrelacionadas.

2022
Descrição
  • FERNANDA VENTURATO ROQUIM
  • INVESTIGAÇÃO DA CAPACIDADE PREDITIVA DE MODELOS COM EFEITOS ALEATÓRIOS EM GAMLSS: UM ESTUDO EM DADOS DE SEGUROS DE AUTOMÓVEIS

  • Data: 25/10/2022
  • Mostrar Resumo
  • Os veículos automotivos são máquinas de grande relevância porque possibilitam, não só, mobilidade para os indivíduos, mas também diversos outros benefícios. Independentemente de sua serventia, a quantidade exorbitante de veículos que há circulando cotidianamente trazem alguns prejuízos, como o aumento no número de acidentes. As seguradoras se inseriram no mercado de seguros veicular como resposta a essa necessidade de asseguramento financeiro dos proprietários. A precificação deste tipo de seguro pode ser complicada, porque diferentes proprietários terão diferentes características, que chamamos de classes de risco, e também diferentes comportamentos de condução, que são avaliadas através do histórico do segurado. Além disso, as próprias características dos valores das indenizações são de difícil estimação, devido ao excesso de valores nulos e ocorrências de valores extremos. Por isso, quanto mais adaptável e robusto é um modelo, melhor serão as predições. Nesta ocasião, o objetivo principal deste trabalho foi propor um modelo para precificação de sinistros que consiga abarcar essa complexidade. Utilizamos a classe de modelos de regressão, mais especificamente, modelos aditivos generalizados mistos para locação, escala e forma (GAMMLSS). O conjunto de dados utilizado é longitudinal e refere-se a clientes de uma empresa seguradora espanhola, trazendo diversas informações de apólices de seguros de automóveis, que são acompanhadas ao longo de cinco anos. Foram testadas duas distribuições para variável resposta com diversas combinações de preditores, de covariáveis e de termos aditivos.
    Os principais achados apontam que o modelo que considerou o histórico do segurado gerou predições mais precisas e mais acuradas. Também, este modelo apresentou um comportamento nas predições que representa mais fidedignamente o que ocorreu na realidade. A metodologia proposta pode ser facilmente expandida para outros tipos de seguros.

  • NATIELE DE ALMEIDA GONZAGA
  • DESCRIÇÃO DO ACÚMULO DA MASSA SECA DA PLANTA DE MILHO CONSIDERANDO A CULTURA ANTECESSORA POR MODELOS NÃO LINEARES

  • Data: 06/10/2022
  • Mostrar Resumo
  • O milho é o cereal mais produzido no mundo, sendo utilizado tanto na alimentação humana quanto animal. O Brasil ocupa o ranking de terceiro maior produtor mundial e o segundo maior exportador dessa cultura. Porém, apesar de sua grande importância para o agronegócio brasileiro, a produtividade dessa cultura ainda é considerada baixa, sendo assim, faz-se necessário o estudo do crescimento das plantas de milho, o que pode auxiliar no manejo adequado da cultura e, consequentemente, no aumento da produtividade. O crescimento vegetal apresenta comportamento sigmoidal, o qual é bem ajustado através de modelos não lineares. Com isso, este trabalho teve como objetivo comparar o ajuste dos modelos não lineares Logístico, Gompertz e von Bertalanffy aos dados de acúmulo de massa seca total, dos colmos, das folhas e das  espigas em plantas de milho, em grama/m2, cultivadas com palhadas de cobertura oriundas de feijão comum, milheto e Brachiaria brizantha em relação aos dias após a emergência das plantas. Os dados analisados foram obtidos de Oliveira et al. (2013). O experimento foi conduzido no verão do ano agrícola 2007/2008, na Fazenda Capivara, localizada no município de Santo Antônio de Goiás (GO). Os pressupostos de normalidade, homocedasticidade e independência residual foram verificados com os testes de Shapiro-Wilk, Breusch-Pagan e Durbin-Watson, respectivamente, considerando uma estrutura de erros autorregressiva AR(1) e heterocedasticidade de variâncias, quando necessários. Os modelos foram ajustados pelo método de mínimos quadrados utilizando o algoritmo de Gauss-Newton por meio do software R. A qualidade do ajuste foi avaliada com base nos valores do coeficiente de determinação (R2), do desvio padrão residual (DPR) e do critério de informação de Akaike (AIC). Os modelos não lineares utilizados descreveram adequadamente o crescimento da massa seca da planta de milho considerando a cultura antecessora, tendo os modelos Gompertz e von Bertalanffy  apresentado os melhores ajustes para a massa seca dos colmos, os modelos Logístico e von Bertalanffy para a massa seca das espigas, o modelo Gompertz para a massa seca das folhas e os modelos Gompertz e von Bertalanffy para a massa seca total, com base nos avaliadores de qualidade utilizados. Na cultura antecessora de feijão comum ocorreu maior acúmulo de massa seca dos colmos e folhas de milho.

     

  • RAFAELA DE CARVALHO SALVADOR
  • MODELOS NÃO LINEARES NA COMPARAÇÃO DE FERTILIZANTES DE LIBERAÇÃO CONTROLADA APLICADOS AO CAFEEIRO

  • Data: 05/10/2022
  • Mostrar Resumo
  • O café é uma cultura muito importante para o Brasil, gera desenvolvimento econômico e social ao país. O sucesso do cultivo do grão está relacionado ao aumento da produtividade, que pode ser influenciada por diversos fatores, dentre eles merece destaque o manejo adequado da fertilidade do solo. Vários nutrientes são necessários na adubação, um indispensável é o nitrogênio (𝑁) e atualmente o fertilizante mais usado para suprir esta demanda é a ureia, pois possui alta concentração do nutriente e baixo custo por unidade. No entanto, este fertilizante apresenta altas taxas de perdas de 𝑁, principalmente por volatilização de amônia (𝑁𝐻3). Visando diminuir essas perdas surgiram algumas inovações tecnológicas, dentre elas o fertilizante de liberação controlada. O padrão de liberação dos nutrientes, na tecnologia de liberação controlada, apresenta um comportamento de um sigmoide (formato de S), o que se assemelha a curva de absorção de 𝑁 do café e sigmoides são bem ajustados por modelos de regressão não linear. O objetivo desta pesquisa é selecionar o modelo de regressão não linear mais adequado para descrever as perdas de nitrogênio por volatilização de amônia (𝑁𝐻3) em fertilizantes de liberação controlada aplicados ao cafeeiro e comparar os diferentes fertilizantes com base nos parâmetros do modelo selecionado. Os dados estudados são os fertilizantes de liberação controlada ureia + enxofre + polímero, ureia + resina plástica, ureia formaldeído, ureia + polímero insolúvel em água, aplicados ao cafeeiro. Os modelos Logístico, Gompertz, Brody e von Bertalanffy foram ajustados pelo método de mínimos quadrados utilizando o algoritmo de Gauss-Newton, considerando as estruturas de resíduos independentes ou autorregressivos. A qualidade do ajuste foi avaliada com base nos valores do coeficiente de determinação ajustado, desvio médio absoluto e critério de informação de Akaike. Todos os modelos apresentaram bons ajustes, porém com base nos avaliadores de qualidade utilizados o modelo von Bertalanffy apresentou-se na maioria dos casos como o melhor para descrever a perda acumulada média de nitrogênio por volatilização de amônia em fertilizantes de liberação controlada aplicados no cafeeiro. Foram realizados os ajustes individuais do modelo von Bertalanffy para cada repetição e aplicada a análise de variância nas estimativas dos parâmetros, o teste F foi significativo em todos os parâmetros, o teste Tukey indicou que o fertilizante  ureia + formaldeido atinge assintota mais rapidamente e apresenta a menor perda acumulada de N, os fertilizantes Ureia+Enxofre+Polímeros e Ureia + Polímero Insolúvel possuem o ponto de inflexão mais tardio, dentre os estudados.

  • WÉLSON ANTÔNIO DE OLIVEIRA
  • MÉTODOS DE PROCESSOS PONTUAIS PARA ANÁLISE ESPACIAL DE ESPÉCIES ARBÓREAS NATIVAS DE UM FRAGMENTO FLORESTAL DA REGIÃO DE LAVRAS-MG

  • Data: 29/09/2022
  • Mostrar Resumo
  • Muitos fenômenos aleatórios podem ser expressos por ocorrências identificadas por coordenadas localizadas no espaço. Esses fenômenos são denominados processos pontuais. Quando é associado algum atributo (marca) à coordenada, os fenômenos recebem o nome de processos pontuais marcados. No manejo florestal de espécies nativas é de extrema importância caractecrizar não somente a configuração espacial de cada espécie de árvores, mas também a interação existente entre diversas espécies. Essa caracterização pode auxiliar o pesquisador na tomada de decisão, fornecendo-lhe informações que incluem competição, distribuição, crescimento, mortalidade e coexistência de espécies naquele espaço. Dessa forma, o objetivo deste trabalho é utilizar de métodos de processos pontuais para análise espacial de espécies arbóreas nativas de um fragmento de floresta Semidecidual Montana localizada na região de Lavras – MG. Para isso, serão utilizados de alguns métodos de processos pontuais marcados e não marcados não homogêneos para analisar os efeitos de primeira e segunda ordem, permitindo a análise de distribuição e interação espacial e análise de dependência entre pontos (árvores) e marcas (DAP e espécie). Os efeitos de primeira ordem (ou efeitos globais) caracterizam o número esperado de ocorrências por unidade de área (tendência), enquanto os efeitos de segunda ordem (ou efeitos locais de pequena escala) caracterizam a estrutura de dependência espacial do processo. Pelos resultados, é possível observar o potencial dos métodos para análise de processos pontuais espaciais para responder questões que auxiliem no manejo, controle e desenvolvimento de espécies arbóreas nativas.

  • ALICE SILVA DUARTE
  • APLICAÇÃO DE MÉTODOS DE SELEÇÃO DE VARIÁVEIS EM MODELOS DE REGRESSÃO

  • Data: 22/09/2022
  • Mostrar Resumo
  • Modelos de regressão são técnicas utilizadas para estabelecer relação de causa/efeito entre uma variável resposta e uma ou mais variáveis explicativas. Com o avanço tecnológico o volume de dados e a dimensão dos dados analisados é cada vez maior. Enquanto por um lado, o grande número de variáveis pode aumentar a capacidade preditiva do modelo, por outro lado, muitas destas variáveis podem contribuir pouco e gerar um alto custo computacional fazendo-se necessário a seleção de variáveis e busca por aquelas que têm maior impacto no modelo. O objetivo deste trabalho foi avaliar o uso de métodos de seleção de variáveis em dois estudos de caso. O primeiro trata-se de um estudo de avaliação de frequência e segurança alimentar de pré-escolares do município de Lavras, MG. As respostas analisadas nessa primeira etapa são dados de categorias da Escala Brasileira de Insegurança Alimentar (EBIA) e do Questionário de Frequência Alimentar (QFA), ajustados por modelos logísticos. A amostra utilizada envolve dados de 581 pré-escolares caracterizados por cerca de 50 variáveis, de diferentes tipos. Foram considerados os métodos stepwise, lasso, o Purposeful Selection of Covariates (PSV) e Random Forest para de seleção de variáveis. Posteriormente foram obtidos os modelos logísticos com as variáveis selecionadas por estes métodos. Os modelos foram avaliados em termos de AIC e de deviance residual. Dentre os métodos avaliados, o que produziu o modelo com melhor desempenho foi o Stepwise. A segunda aplicação envolve um cenário de dados de alta dimensão obtidos com a utilização de NIRS em um problema de predição de consumo alimentar a partir de fezes de vacas leiteiras em um rebanho. Foram considerados os métodos stepwise, lasso e random forest para seleção de variáveis. O lasso apresentou bom desempenho no estudo de validação cruzada. No entanto, esse estudo se limita na utilização dos métodos de forma independente, já que outros autores obtiveram bons resultados aplicando mais de um método simultaneamente. As contribuições deste estudo de caso estão na comparação entre lasso e random forest usados separadamente para seleção de variáveis em NIRS e a comparação entre
    diferentes tipos de validações para os modelos obtidos com o uso do lasso. 

  • GABRIEL EDSON SOUSA DA SILVA
  • AVALIAÇÃO DE MODELOS NÃO LINEARES NA DESCRIÇÃO DO ACÚMULO DE MACRONUTRIENTES EM PLANTAS DE CHICÓRIA.

  • Data: 30/08/2022
  • Mostrar Resumo
  • A chicória está entre as principais verduras folhosas incluindo a alface, o repolho, a rúcula e a couve-folha. É consumida na forma de salada ou então refogada, constituindo-se num alimento indicado nas refeições por fornecer nutrientes e vitaminas. No estudo do crescimento e desenvolvimento das verduras é interessante acompanhar o teor e a mobilização dos macronutrientes ao longo do tempo para entender a dinâmica envolvida e a necessidade de adubação buscando respostas eficientes das plantas. O acúmulo de nutrientes nas plantas com o tempo, em geral, apresenta caráter sigmoidal que pode ser descrito por modelos não lineares. O objetivo deste trabalho foi avaliar a utilização dos modelos Logístico e Gompertz no estudo do acúmulo de macronutrientes, em mg/planta, em função da idade da planta, em dias, na matéria seca das cultivares ‘crespa’ e ‘AF-218’, cultivadas com ou sem cobertura com tecido de polipropileno. Os dados foram obtidos de um experimento onde o conteúdo acumulado de macronutriente foi anotado nas idades de 7, 14, 21, 28, 35 e 42 dias após os transplantes (Feltrin et al., 2008, Horticultura Brasileira, v.26, n.1, p.50-55). Os modelos foram ajustados pelo método de mínimos quadrados utilizando o algoritmo de Gauss-Newton por meio do software R. A avaliação da qualidade do ajuste foi feita com base nos valores do coeficiente de determinação, do desvio padrão residual e do critério de informação de Akaike. Os resultados mostraram que para as duas cultivares os modelos foram adequados para descrever o acúmulo de enxofre, entretanto, em quase todos os ajustes o modelo Logístico se ajustou melhor, perdendo em apenas um caso para o modelo Gompertz. Com base no nos resultados podemos observar que entre as cultivar a que mais se destacou foi a “AF-218”, apresentando pontos de inflexão mais cedo e maior acúmulo ao fim do experimento. E ainda sobre a cultivar “AF-218”, quando cultivada sob cobertura de tecido de polipropileno, apresentou resultados melhores.

  • ANA CAROLINA DE OLIVEIRA
  • MODELO DE REGRESSÃO NÃO LINEAR MISTO NA MODELAGEM DO CRESCIMENTO DE Eremanthus erythropappus (DC.) MacLeish

  • Data: 28/07/2022
  • Mostrar Resumo
  • NÃO ENVIADO

  • ANA CLAUDIA FESTUCCI DE HERVAL
  • IMPACTO DOS CHOQUES NA COMPONENTE DISCRETA DA VOLATILIDADE: UMA ABORDAGEM VIA ONDALETAS.

  • Data: 03/06/2022
  • Mostrar Resumo
  • A presença de saltos possui forte impacto na previsão da volatilidade de ativos financeiros.
    Estes saltos podem ser compreendidos como grandes mudanças estruturais locais na
    série e, como estão frequentemente associados à uma questão comportamental dos investidores,
    em geral causada por anúncios de notícias macroeconômicas, é imperativo tentar compreendêlos
    bem, já que é um desafio tentar prevê-los. A abordagem de ondaletas pode ser uma forte
    aliada em situações como esta, uma vez que detectam locais de salto com eficiência, além de
    possibilitarem uma interpretação econômica ao relacionar as escalas de tempo obtidas na decomposição
    com os horizontes de investimento do dia a dia dos operadores de bolsa de valores.
    Desta forma, o presente trabalho utilizou o limite universal de Donoho e Johnstone para detectar
    saltos nas séries obtidas com a transformada de ondaletas MODWT da série de preços.
    Os saltos detectados foram então mensurados e utilizados para se estimar a Variação de Salto
    (componente discreta da Variação Quadrática, medida natural da variabilidade do processo de
    preço). Construída desta forma, é possível observar a contribuição dos saltos de cada uma das
    escalas de tempo da decomposição de ondaletas para a composição da Variação de Salto, levando
    a uma melhor compreensão da relevância de cada nível/horizonte para a variabilidade
    descontínua do processo. Além disso, a série de retornos pode ser refinada com a eliminação
    dos saltos localizados nos diversos níveis, de forma que os modelos da família HAR ajustados a
    estas novas séries refletem o comportamento da Variância Integrada do processo. Para o estudo
    dos saltos e uma melhor compreensão de seu comportamento, uma aplicação em dados reais
    foi realizada a partir da série de log-preços das ações da Petrobrás (PETR4), na frequência de 1
    minuto, em um período com uma forte queda evidenciada por uma intervenção na presidência
    da estatal. A metodologia utilizada evidenciou que, particularmente para esta queda de preços
    citada, a variabilidade devida à saltos é impactada de forma que sua estimativa mais que triplica
    ao se considerar também os níveis de menor frequência, correspondentes a horizontes de investimentos
    que vão de minutos até 1 a 2 horas de negociação, o que destaca também o período de
    tempo que o efeito da notícia leva para diluir no mercado de ações. A aplicação dos modelos
    da família HAR evidenciou a presença de memória longa da volatilidade realizada: tanto no
    modelo HAR-RV tradicional, após eliminação dos saltos, quanto no HAR-RV-J e HAR-RV-CJ,
    através de suas componentes discretas. Ao se considerar os modelos robustos à saltos, não
    houve considerável melhora ao se utilizar a metodologia proposta, no entanto, foi possível evidenciar
    que eliminar os saltos a partir da decomposição de ondaletas, além da interpretabilidade
    que esta abordagem favorece, traz mais liberdade para aplicação de outros modelos de previsão
    de volatilidade que não se restrinjam à robustez a saltos.

  • MARCELO SAVIO RAMOS
  • MODELAGEM DE VALORES EXTREMOS NA AVALIAÇÃO DA QUALIDADE DO AR PÓS-ROMPIMENTO DA BARRAGEM EM BRUMADINHO, MG

  • Data: 31/05/2022
  • Mostrar Resumo
  • Não disponibilizado

  • MARIANA RESENDE
  • Índices de qualidade de ajuste de modelos estruturais corrigidos por repetições nas variáveis observadas com aplicação em análise sensorial de cafés.

  • Data: 23/05/2022
  • Mostrar Resumo
  • A Modelagem de Equações Estruturais (MEE) é uma técnica multivariada que permite o estudo de diversas relações simultaneamente, inclusive envolvendo variáveis não observáveis. Em geral a qualidade de ajuste de um modelo de equações estruturais é verificada por diversos índices, nos quais, em síntese, avaliam a correspondência entre a matriz de covariância amostral e a covariância implícita pelo modelo que represente apropriadamente as inter-relações entre os indicadores envolvidos no estudo, porém em nenhum deles a repetição entre as variáveis observadas são consideradas. Com essa motivação esse trabalho tem por objetivo propor a correção em índices GFI e AGFI considerando repetições nas variáveis observadas e aplicação a analise sensorial de cafés. A validação foi feita por simulação Monte Carlo em diversos cenários representados por diferentes números de repetições, graus de heterogeneidade e quantidades de outliers geradas por distribuições com desvios de simetria e excesso de curtose. O estudo de simulação mostrou que aprimoramento dos índices de validade de ajuste GFI e AGFI foi promissor, uma vez que, apresentou propriedades de robustez em relação a presença de outliers e mostrou evidências de diagnóstico de um modelo com bom e ruim ajuste, mediante aos graus de heterogeneidade impostos entre as matrizes de covariâncias amostral e hipotetizada pelo modelo. Em relação ao estudo de cafés especiais, dado o modelo proposto, as informações representadas nas variáveis latentes produção e variações ambientais de fato influenciam na percepção sensorial para os cafés produzidos na região da Serra da Mantiqueira e o aprimoramento dos índices, apresentou melhorias em validação do modelo, dado a inclusão das repetições das variáveis observadas.

  • MARIANA RESENDE
  • ÍNDICES DE QUALIDADE DE AJUSTE DE MODELOS DE EQUAÇÕES ESTRUTURAIS CONSIDERANDO REPETIÇÕES E TRATAMENTOS COM APLICAÇÃO EM ANÁLISE SENSORIAL DE CAFÉS

  • Data: 23/05/2022
  • Mostrar Resumo
  • A Modelagem de Equações Estruturais (MEE) é uma técnica multivariada que permite o estudo de diversas relações simultaneamente, inclusive envolvendo variáveis não observáveis. Em geral a qualidade de ajuste de um modelo de equações estruturais é verificada por diversos índices, nos quais, em síntese, avaliam a correspondência entre a matriz de covariância amostral e a covariância implícita pelo modelo que represente apropriadamente as inter-relações entre os indicadores envolvidos no estudo, porém em nenhum deles a repetição entre as variáveis observadas são consideradas. Com essa motivação esse trabalho tem por objetivo propor a correção em índices GFI e AGFI considerando repetições nas variáveis observadas e aplicação a analise sensorial de cafés. A validação foi feita por simulação Monte Carlo em diversos cenários representados por diferentes números de repetições, graus de heterogeneidade e quantidades de outliers geradas por distribuições com desvios de simetria e excesso de curtose. O estudo de simulação mostrou que aprimoramento dos índices de validade de ajuste GFI e AGFI foi promissor, uma vez que, apresentou propriedades de robustez em relação a presença de outliers e mostrou evidências de diagnóstico de um modelo com bom e ruim ajuste, mediante aos graus de heterogeneidade impostos entre as matrizes de covariâncias amostral e hipotetizada pelo modelo. Em relação ao estudo de cafés especiais, dado o modelo proposto, as informações representadas nas variáveis latentes produção e variações ambientais de fato influenciam na percepção sensorial para os cafés produzidos na região da Serra da Mantiqueira e o aprimoramento dos índices, apresentou melhorias em validação do modelo, dado a inclusão das repetições das variáveis observadas.

  • HERBERT STEIN PEREIRA TORRES SANTOS
  • Análise de correspondência canônica não linear com ênfase na descrição da redundância de dados sensoriais de aceitação de blends de cafés de diferentes variedades.

  • Data: 25/04/2022
  • Mostrar Resumo
  • A formulação de blends de café é de suma importância para a indústria cafeeira, pois proporciona ao produto final expressiva capacidade de competição de mercado e agrega atributos sensoriais que complementam a experiência de consumo. Por meio da análise de redundância e da análise de correspondência canônica é possível estudar as relações entre um conjunto de notas sensoriais e um conjunto de blends com diferentes proporções de variedade de café através de modelos de regressão linear multivariados. Contudo, não é realista assumir que tais respostas sensoriais são dadas de forma linear em relação à formulação dos blends, visto que alguns tipos de café têm maior peso na avaliação sensorial (termos quadráticos) e deve-se considerar o efeito das misturas (termo de interação). Com esta motivação, este trabalho tem como objetivo propor o uso da análise de redundância e análise de correspondência não lineares através da regressão polinomial multivariada para avaliar a aceitação de variedades de blends de café. Os blends foram formulados a partir de proporções de variedades de cafés especiais da espécie Arábica, Bourbon amarelo e Acaiá, café Conilon e de uma marca comercial de café torrado. Os blends foram avaliados recebendo notas que variaram de 0 a 10 para as características qualitativas da bebida: sabor, amargor, acidez, corpo e nota final. Resultados prévios mostram que houve ganhos no percentual de variância explicada total nos modelos não lineares em relação aos lineares.

  • ARIANA CAMPOS FRÜHAUF
  • ESTUDO DO CRESCIMENTO DIAMÉTRICO DE CEDRO (Cedrela fissilis) POR REGRESSÃO QUANTÍLICA NÃO LINEAR.


  • Data: 13/04/2022
  • Mostrar Resumo
  • As florestas exercem um papel fundamental na manutenção da vida. Porém, elas estão diminuindo e assim, muitas espécies arbóreas, principalmente de florestas nativas, como é o caso do cedro (Cedrela fissilis), estão entrando em extinção devido a sua intensa exploração. Sendo assim, faz-se necessário o estudo do seu crescimento como auxílio na obtenção de melhores planos de manejo para as florestas que o contém. O crescimento das árvores, em geral, é bem ajustado por modelos de regressão não linear. Porém, comumente a regressão utilizada é focada na média, assim esses ajustes trazem uma visão limitada da relação entre as variáveis, além de estarem sujeitos a problemas proporcionados pela heterocedasticidade ou possível assimetria na distribuição dos erros. A regressão quantílica pode contornar esses problemas, além de permitir estimativas em diferentes quantis, gerando com isso um mapeamento mais completo do desenvolvimento da floresta em estudo. O objetivo deste trabalho foi comparar o ajuste dos modelos não lineares Logístico, Gompertz, von Bertalanffy, Brody, Chapman-Richards e Weibull pelo método dos mínimos quadrados, utilizando-se o método iterativo de Gauss-Newton e, pela regressão quantílica através do algoritmo de pontos interiores, para os dados do diâmetro a altura do peito (DAP) acumulado ao longo do tempo para 56 árvores amostradas em floresta nativa com o uso de técnica não destrutiva. Utilizou-se o coeficiente de determinação, o desvio médio absoluto e o critério de informação de Akaike para avaliar a qualidade dos ajustes e verificou-se a adequabilidade dos modelos através da análise residual e das medidas de não linearidade. Toda análise computacional foi realizada utilizando-se o software estatístico R. Os resultados permitiram verificar a importância da análise de resíduos em estudos florestais, bem como apontou a regressão quantílica como adequada para descrever o DAP acumulado em função do tempo, sendo o modelo Brody o que melhor aderiu aos dados.

    *

  • CLÁUDIO FRANCISCO CHIPENETE
  • PREDIÇÃO DE DADOS DE ÁREA REFERENTES AO USO DE SEMENTES MELHORADAS DE MILHO EM MOÇAMBIQUE

  • Data: 31/03/2022
  • Mostrar Resumo
  • Ao se analisar os dados espaciais de área, um dos principais objetivos é avaliar a presença ou não de agrupamentos em um determinado fenómeno. Pode-se dizer que tem sido o principal foco em diversas áreas de pesquisa. Mas, além desse objetivo, um outro não menos importante é estimação dos parâmetros envolvidos por se ajustar um modelo de regressão que incorpore um componente de dependência espacial, uma vez que, não raro, essa dependência estar presente e, por fim, a predição de valores não observados através de preditores próprios nessa área. Pode se dizer que, este último tem sido raro, uma vez que, em dados de área, tem-se trabalhado com informações presentes em cada área de estudo. Um dos desafios imposto, é a especificação da matriz de ponderação espacial, um componente essencial sempre presente. Ela estabelece a vizinhança entre um par ou conjunto de áreas, existindo para tal, diferentes critérios na sua especificação que, de algum modo, pode contribuir para uma especificação não assertiva, comprometendo a qualidade do ajuste do modelo. Portanto, um dos objetivos nesta tese, é avaliar o efeito da matriz de ponderação espacial na qualidade de predição. Associado a esse objetivo, um outro é a proposta de um preditor baseando-se em técnicas de krigagem da geoestatística, uma técnica já bem documentada, além de possuir o melhor preditor linear não viesado (BLUP). Alguns estudos demonstraram que, ao se utilizar esse preditor baseando-se em modelos autorregressivos do erro espacial (SEM), foi possível obter bons resultados na qualidade de predição. Portanto, nesta tese, em vez de se utilizar o modelo SEM com mesmo objetivo, utilizar o modelo espacial autorregressivo de defasagem espacial (SAR) e avaliar o poder predito, com base em duas matrizes de ponderação espacial.

  • HUMBERTO MARCILIO MARTINS
  • MÉTODOS PARA DETECÇÃO DE OUTLIERS MULTIVARIADOS: VIA USO DOS ESTIMADORES ROBUSTOS

     

  • Data: 14/03/2022
  • Mostrar Resumo
  • Na aplicação da análise multivariada é necessário seguir alguns procedimentos para não obter uma relação equivocada do fenômeno de interesse com as demais variáveis, ou seja, o modelo precisa ser bem ajustado as características do fenômeno sob estudo. A detecção de \textit{outliers} é um importante método a ser aplicado nas análises estatísticas, pois um único \textit{outlier} pode causar mudanças nas estimativas dos parâmetros, interferir também nos testes de normalidade e de correlação entre as variáveis, além de alterar os resultados de qualquer outro procedimento de inferência. Portanto, o objetivo desse trabalhor é apresentar e comparar alguns métodos de detecção de \textit{outliers} em dados multivariados. Foram comparados os métodos elipsoíde de volume mínimo (MVE), Covariância de volume mínimo (MCD), Ortogonalizado de Gnanadesikan e Kettenring (OGK), componentes principais para detecção de \textit{outliers }(PCOut) e o \textit{Comedian}. Para realizar as comparações foi realizado uma série de simulações prevendo diversas situações utilizando a distribuição normal contaminada. As comparações foram avaliadas atráves da taxa de sucesso (TS), que aponta a porcentagem de \textit{outliers} que os métodos identificaram corretamente e da taxa de falsa detecção (TFD), que aponta a porcentagem de observações que não são\textit{outliers}, mas foram idetenficadas como \textit{outliers}. Conclui-se que os métodos PCOut e \textit{Comedian} possuem TS's melhores, na maioria dos cenários simulados, que os métodos MVE, MCD e OGK. Além disso, o método \textit{Comedian} apresentou as melhores TFD's.

  • MARCELA DE MARILLAC CARVALHO
  • DEPENDÊNCIA DE PORTFÓLIOS: UMA ABORDAGEM MULTIESCALA VIA CÓPULAS MULTIVARIADAS.

  • Data: 24/02/2022
  • Mostrar Resumo
  • ****

  • LEONARDO DE ALMEIDA NASCIMENTO
  • MODELAGEM DA PERDA DE NITROGENIO POR VOLATILIZACAO DE AMONIA EM FERTILIZANTES APLICADOS NO CAFEEIRO

  • Data: 21/02/2022
  • Mostrar Resumo
  • O nitrogênio (N) é um nutriente mineral, encontrado em uma variedade de formas
    no solo, pode ser absorvido em diferentes formas pelas plantas em crescimento,
    importante no processo da fotossíntese e para a produção de proteínas nas culturas.
    Sendo o café uma planta que nutri uma relação de dependência com o nitrogênio,
    dada sua relevância nutricional para produtividade desta cultura. No entanto, o nutriente
    não é totalmente absorvido do solo pela planta, ocorrendo a necessidade da
    complementação via adubação. Contudo, este fertilizante nitrogenado aplicado a
    lavoura de café pode ser perdido por volatilização de amônia (NH3), ocasionando
    a não absorção total, do nutriente, pela planta. O conhecimento do comportamento
    nutricional da cultura do café contribui para o manejo adequado, influenciando na
    qualidade, produtividade e minimizando as perdas econômicas. Por essa razão,
    neste trabalho, objetivou-se modelar as perdas de nitrogênio, por volatilização de
    amônia, de fertilizantes nitrogenados aplicados em lavoura cafeeira, por meio do
    ajuste de modelos de regressão não linear, os quais foram Logístico, Gompertz,
    von Bertalanffy e Brody. Os dados avaliados, quanto a perda de N, são originários
    de experimento realizado durante a safra 2015/2016, na Agência de Inovação do
    Café (INOVACAFÉ) da Universidade Federal de Lavras, no delineamento em blocos
    casualizados com 3 repetições de 7 tratamentos (fertilizantes nitrogenados). O
    método de estimação usado foi o método dos mínimos quadrados (MMQ), tendo
    o algoritmo de convergência de Gauss-Newton como o método iterativo. Além
    disso, todas as análises do trabalho foram realizadas utilizando o software livre
    R. Através dos resultados encontrados pelos avaliadores da qualidade de ajuste:
    coeficiente de determinação ajustado (R2aj), desvio padrão residual (DPR), critério
    de informação de Akaike (AIC) e desvio médio absoluto (DMA); verificamos que
    todos os modelos exibiram bons ajustes, porém, o modelo Brody apresentou-se
    como o melhor para descrever as perdas acumuladas de nitrogênio, por volatilização
    de amônia, entre os sete tratamentos aplicados e
    avaliados

  • LEONARDO BIAZOLI
  • MODELOS QUASE-EXPERIMENTAIS NA AVALIAÇÃO DE IMPACTOS ECONÔMICOS DE DESASTRES SOCIOTÉCNICOS.

  • Data: 14/02/2022
  • Mostrar Resumo
  • A inferência causal tem o objetivo de avaliar o efeito de alguma causa potencial em algum resultado. Nesse sentido, destacam-se os modelos quase-experimentais Propensity Score Matching (PSM) e controle sintético, que são técnicas de avaliação não experimental. Esses modelos quase-experimentais utilizam informações de um conjunto de unidades que não participaram de um tratamento para identificar o que teria acontecido às unidades participantes se não participassem da intervenção. Assim, neste trabalho foram aplicados os modelos quase-experimentais, PSM e controle sintético, com o objetivo de avaliar o impacto econômico do rompimento da barragem do Fundão na região de Mariana-MG. Estes modelos foram aplicados também com o uso de análise de agrupamento para utilizar municípios controle semelhantes às unidades tratadas e analisar as diferenças nos resultados obtidos. Os dados analisados foram retirados de diversas fontes e tratam-se de indicadores socioeconômicos que caracterizam os municípios atingidos pelo rompimento da barragem do Fundão. Os resultados obtidos pelo PSM, para avaliar algum efeito no PIB real per capita dos 35 municípios impactados, não revelaram efeito de tratamento médio significativo nos anos 2016, 2017 e 2018. Ao analisar os resultados obtidos no PSM com a análise de agrupamento, foi encontrado uma diferença maior entre as médias dos grupos tratado e controle, porém não foi significativo também ao nível de 5% de significância. O controle sintético também foi utilizado para avaliação do impacto do rompimento da barragem do Fundão no PIB real per capita no município de Mariana, em que foram traçadas as trajetórias sintéticas da variável resposta com e sem a análise de agrupamento. Os resultados obtidos no controle sintético, sem a análise de agrupamento, não demonstraram ser um bom contrafactual para a unidade tratada, município de Mariana. O controle sintético sem o agrupamento considerou todos os municípios mineiros não impactados pelo desastre sociotécnico como potenciais controle e isso, além de afetar as estimativas, levou a um tempo computacional de mais de 6 horas. Ao considerar a análise de agrupamento no controle sintético, o contrafactual obtido contou com um ajuste satisfatório e com redução no tempo computacional em mais de 600%.

  • EDILENE CRISTINA PEDROSO AZARIAS
  • ESTUDO DE CRESCIMENTO DE PLANTAS DANINHAS DO GÊNERO AMARANTHUS POR MODELOS NÃO LINEARES.

     

  • Data: 10/02/2022
  • Mostrar Resumo
  • *****

  • ISABELA DA SILVA LIMA
  • ESTATÍSTICA SEQUENCIAL BAYESIANA DOS PARÂMETROS DA DISTRIBUIÇÃO MULTINOMIAL.

  • Data: 09/02/2022
  • Mostrar Resumo
  • A amostragem é uma etapa importante no processo de estimação de um parâmetro, que deve ter
    seu custo e tempo reduzido. Assim, o uso da amostragem sequencial, que possui o tamanho de
    amostra variável, avalia cada elemento por vez, permite que a decisão de parar a amostragem e
    estimar um parâmetro seja tomada antecipadamente, sem que todos os elementos sejam avaliados
    como previsto no processo de inferência clássico. Além disso, pode-se incorporar a teoria da decisão bayesiana à amostragem sequencial para realizar a estimação de parâmetros, pois essa permite
    incluir uma informação a priori sobre o parâmetro de interesse, o que auxilia na tomada de decisão
    e otimiza o procedimento. O grande desafio para realizar a estimação sequencial bayesiana reside
    na dificuldade em estabelecer critérios de parada. Devido à dificuldade inerente ao procedimento
    a maioria dos trabalhos desenvolvidos nessa área é para a distribuição binomial, e existem poucos
    trabalhos para a distribuição multinomial. Desse modo, o objetivo deste trabalho é desenvolver critérios de parada para o processo de estimação sequencial bayesiana dos parâmetros da distribuição
    multinomial, detalhar sobre amostragem sequencial, inferência bayesiana, estimação de parâmetros
    pelas abordagens frequentista, bayesiana e sequencial bayesiana, além das distribuições multinomial e binomial. Além disso, aplicar a um conjunto de dados reais de contagem, como o do teste de
    raios X para controle de qualidade de lotes de sementes de milho, utilizando a distribuição multinomial, para verificar e validar a técnica. Assim, avaliou-se a influência de duas prioris no critério de
    parada, uma uniforme e outra extraída da literatura, além do custo por observação. Os resultados
    obtidos pela metodologia proposta foram comparados com a abordagem frequentista e bayesiana
    de estimação de parâmetros, concluindo que para proporções mais extremas obteve-se estimativas
    mais distantes, mas para os lotes em que as proporções são intermediárias, mais distribuídas entre as
    classes, as estimativas sequencias bayesianas foram melhores, obtendo sucesso em todos os casos
    avaliados e com a vantagem da redução do tamanho amostral na maioria dos lotes avaliados. Além
    disso, concluiu-se que nos lotes em que a houve interrupção da amostragem precocemente, foi pelo
    motivo de existir uma classe muito discrepante em relação às outras, e portanto, os resultados foram
    acumulados fazendo com que o processo pare rapidamente.

  • ISABELA DA SILVA LIMA
  • ESTATÍSTICA SEQUENCIAL BAYESIANA DOS PARÂMETROS DA DISTRIBUIÇÃO MULTINOMIAL 

  • Data: 09/02/2022
  • Mostrar Resumo
  • A amostragem é uma etapa importante no processo de estimação de um parâmetro, que deve ter
    seu custo e tempo reduzido. Assim, o uso da amostragem sequencial, que possui o tamanho de
    amostra variável, avalia cada elemento por vez, permite que a decisão de parar a amostragem e
    estimar um parâmetro seja tomada antecipadamente, sem que todos os elementos sejam avaliados
    como previsto no processo de inferência clássico. Além disso, pode-se incorporar a teoria da deci￾são bayesiana à amostragem sequencial para realizar a estimação de parâmetros, pois essa permite
    incluir uma informação a priori sobre o parâmetro de interesse, o que auxilia na tomada de decisão
    e otimiza o procedimento. O grande desafio para realizar a estimação sequencial bayesiana reside
    na dificuldade em estabelecer critérios de parada. Devido à dificuldade inerente ao procedimento
    a maioria dos trabalhos desenvolvidos nessa área é para a distribuição binomial, e existem poucos
    trabalhos para a distribuição multinomial. Desse modo, o objetivo deste trabalho é desenvolver cri￾térios de parada para o processo de estimação sequencial bayesiana dos parâmetros da distribuição
    multinomial, detalhar sobre amostragem sequencial, inferência bayesiana, estimação de parâmetros
    pelas abordagens frequentista, bayesiana e sequencial bayesiana, além das distribuições multino￾mial e binomial. Além disso, aplicar a um conjunto de dados reais de contagem, como o do teste de
    raios X para controle de qualidade de lotes de sementes de milho, utilizando a distribuição multino￾mial, para verificar e validar a técnica. Assim, avaliou-se a influência de duas prioris no critério de
    parada, uma uniforme e outra extraída da literatura, além do custo por observação. Os resultados
    obtidos pela metodologia proposta foram comparados com a abordagem frequentista e bayesiana
    de estimação de parâmetros, concluindo que para proporções mais extremas obteve-se estimativas
    mais distantes, mas para os lotes em que as proporções são intermediárias, mais distribuídas entre as
    classes, as estimativas sequencias bayesianas foram melhores, obtendo sucesso em todos os casos
    avaliados e com a vantagem da redução do tamanho amostral na maioria dos lotes avaliados. Além
    disso, concluiu-se que nos lotes em que a houve interrupção da amostragem precocemente, foi pelo
    motivo de existir uma classe muito discrepante em relação às outras, e portanto, os resultados foram
    acumulados fazendo com que o processo pare rapidamente

  • MATHEUS SARAIVA ALCINO
  • MODELOS DE CLASSIFICAÇÃO EM FRAUDES FINANCEIRAS: COMPARAÇÃO DE DESEMPENHO EM CASOS DE CRIME DE SMURFING.

  • Data: 03/02/2022
  • Mostrar Resumo
  • A dificuldade de identificação de fraudes financeiras possui relação direta com o avanço tecnológico pois as novas possibilidades de formas de transações financeiras geram por sua vez novas formas de agentes fraudadores atuarem. Neste contexto, o objetivo deste estudo é explorar a teoria de seis modelos de machine learning (ML), além de compará-los por meio de métricas específicas de avaliação de desempenho. Ainda, este trabalho desenvolve um algoritmo de detecção de um tipo de crime financeiro conhecido como smurfing. Tal algoritmo não utiliza técnicas de ML, mas objetiva ranquear transações financeiras como possíveis fraudes, através de características analisadas de forma agrupada. Devido à impossibilidade de uso de dados financeiros reais, por causa de sua confidencialidade, este trabalho é desenvolvido utilizando dados simulados. Foram gerados dois diferentes cenários, ambos altamente desbalanceados, em que o comportamento das fraudes financeiras varia de acordo com parâmetros específicos. Os modelos de classificação escolhidos se referem ao modelo logístico, Sistemas Baseados em Regras Fuzzy, Redes Neurais Artificiais, Random Forest, Extreme Gradient Boosting e Support Vector Machine. A comparação dos modelos nos diferentes cenários foi feita através de uma combinação das métricas Area Under de Curve, Recall e Fb , tendo em vista o desbalanceamento dos dados. Os resultados apontaram que os modelos Random Forest e Extreme Gradient Boosting obtiveram os melhores desempenhos, entretanto o uso dos demais modelos para tarefas similares não deve ser descartado, uma vez que a inclusão de variáveis explicativas, ou ainda, o próprio uso de dados reais pode fazer com que os desempenhos de cada modelo sejam diferentes.

  • RAFAEL AGOSTINHO FERREIRA
  • PROCESSO DE COX MARCADO MODULADO POR PROCESSOS GAUSSIANOS PARA CONFIGURAÇÕES PONTUAIS UNIDIMENSIONAIS.

  • Data: 28/01/2022
  • Mostrar Resumo
  • A teoria de processos pontuais é uma área da Estatística bastante importante para descrever o

    comportamento de um determinado fenômeno aleatório cuja a realização resulta em um conjunto

    de pontos distribuídos de forma aleatória que representam ocorrências de natureza pontual.

    Esses pontos, quando indexados nos reais unidimensionais, podem representar o momento

    exato de ocorrência. No entanto, o processo pode estar definido em qualquer conjunto de indexação,

    seja ele o tempo ou não. Uma das maneiras de se estudar a realização do processo

    pontual é através da função de intensidade, que descreve uma taxa média de ocorrências. Diversos

    modelos para descrever o comportamento da intensidade de um processo pontual foram

    propostos na literatura, incluindo a recente contribuição de Lloyd et al. (2015), baseado na

    classe de processos de Cox na qual a função de intensidade é descrita em função de um processo

    estocástico Gaussiano. A abordagem de Lloyd et al. (2015) se baseia em um método

    de estimação variacional com a inclusão de um método esparso, o que permite que o modelo

    consiga lidar com uma grande quantidade de observações. Além disso, informações adicionais

    associadas às ocorrências do processo pontual podem ser incorporadas ao modelo, sendo essas

    informações denominadas por marcas. Desse modo, o objetivo da presente tese foi propor um

    esquema de modelagem para descrever a intensidade de processos pontuais marcados, na qual

    a marca é uma variável de natureza qualitativa, composta por duas categorias. A proposta se

    tratou de uma extensão do modelo de Lloyd et al. (2015), na qual a função de intensidade marcada,

    baseada em duas categorias, foi modelada em função de um processo Gaussiano esparso

    bivariado. Seguindo a proposta de Lloyd et al. (2015), o processo de estimação se baseou no

    método variacional, o que permitiu que o método pudesse ser analiticamente tratável. Como

    forma de exemplificar a proposta dessa tese, uma aplicação foi feita a partir de um conjunto

    de dados reais baseado em ocorrências de acidentes em rodovias federais brasileiras. O modelo

    se mostrou promissor, porém com limitações em sua estrutura que, para trabalhos futuros,

    possibilitam que avanços metodológicos possam ser feitos a fim de tornar o modelo melhor.

2021
Descrição
  • MAYLON LEONCIO DA SILVA
  • MODELAGEM NÃO LINEAR DA DINÂMICA DO CARBONO EM SOLO TRATADO COM LODO DE CURTUME.

  • Data: 29/09/2021
  • Mostrar Resumo
  • Não informado

  • PATRICIA MENDES DOS SANTOS
  • MODELOS DE EQUAÇÕES ESTRUTURAIS COM REGRESSÕES ADAPTATIVAS E CONSTRUÇÃO DE UM ÍNDICE PARA VALIDAÇÃO DE CONSTRUTO COM APLICAÇÕES NA DISCRIMINAÇÃO DE PERFIS DE CONSUMIDORES DE CAFÉS ESPECIAIS.

  • Data: 02/08/2021
  • Mostrar Resumo
  • ***

  • CRISTIAN TIAGO ERAZO MENDES
  • AMMI BAYESIANO PARA DADOS ORDINAIS.

  • Data: 29/07/2021
  • Mostrar Resumo
  • ****

  • WALLEFF DA SILVA E SILVA
  • CRITÉRIOS DE SELEÇÃO E QUALIDADE DE AJUSTE EM REGRESSÃO NÃO LINEAR: UMA ABORDAGEM DE MONTE CARLO

  • Data: 26/03/2021
  • Mostrar Resumo
  • **************

  • ALISSON DE LIMA BRITO
  • DADOS DE ÁREA NA FAMÍLIA GAMLSS EM ESTUDOS EPIDEMIOLÓGICOS.

  • Data: 09/03/2021
  • Mostrar Resumo
  • *****

  • ARTHUR OLIVEIRA COSTA
  • MODELOS DE FRAGILIDADE E MULTIESTADO NA AVALIAÇÃO DO TEMPO DE INTERNAMENTOS HOSPITALARES POR COVID-19 EM MINAS GERAIS.

  • Data: 26/02/2021
  • Mostrar Resumo
  • NÃO INFORMADO

  • IURI DOS SANTOS MANOEL
  • SIMULAÇÃO DE MODELOS MULTINÍVEIS COM REGRESSÕES ADAPTATIVAS ROBUSTAS EM CONDIÇÕES EXPERIMENTAIS DE ARMAZENAMENTO DE CAFÉS ESPECIAIS EM AMBIENTES REFRIGERADOS.

  • Data: 26/02/2021
  • Mostrar Resumo
  • ****

  • ERNANDES GUEDES MOURA
  • ANÁLISE GENÔMICA POR JANELAS CROMOSSÔMICAS: REGRESSÃO FUNCIONAL E SALTOS REVERSÍVEIS

  • Data: 26/02/2021
  • Mostrar Resumo
  • ****

  • ANDERSON FERREIRA ARRUDA DE ARAUJO
  • DELINEAMENTO CROSS-OVER SOB O ENFOQUE DE MODELOS COM EFEITOS MISTOS.

  • Data: 25/02/2021
  • Mostrar Resumo
  • *********

  • VÂNIA DE FÁTIMA LEMES DE MIRANDA
  • PROPOSIÇÃO E AVALIZAÇÃO DE TESTES PARA INDEPENDÊNCIA  ENTRE GRUPOS DE VARIÁVEIS.

  • Data: 22/02/2021
  • Mostrar Resumo
  • ***

  • LUCIANO ANTONIO DE OLIVEIRA
  • MODELOS GGE: ESTIMADORES DE ENCOLHIMENTO E HETEROCEDASTICIDADE.

  • Data: 18/02/2021
  • Mostrar Resumo
  • NÃO INFORMADO

  • NICASIO GOUVEIA
  • MODELOS NÃO LINEARES PARA DESCRIÇÃO DO ACÚMULO DE MACRONUTRIENTES FÓSFORO E POTÁSSIO NO CULTIVAR FEIJOEIRO JALO.

  • Data: 08/02/2021
  • Mostrar Resumo
  • Não informado

2020
Descrição
  • ELEANDERSON CAMPOS EUGÊNIO FILHO
  • FACTOR COPULA MODELS FOR RIGHT-CENSORED CLUSTERED SURVIVAL DATA.

  • Data: 25/11/2020
  • Mostrar Resumo
  • NÃO INFORMADO

  • RODRIGO FERREIRA DE ABREU
  • VARIOGRAMA MARCADO NA ANÁLISE DE PROCESSOS PONTUIAIS ESPAÇO-TEMPORAIS COM MARCAS.

  • Data: 24/11/2020
  • Mostrar Resumo
  • ***

  • ANTONIO MENDES MAGALHÃES JÚNIOR
  • UTILIZAÇÃO DE COMITÊS DE REDES NEURAIS ARTIFICIAIS NA CLASSIFICAÇÃO DE DANOS EM SEMENTES DE GIRASSOL

  • Data: 13/11/2020
  • Mostrar Resumo
  • ***

  • MARCEL IRVING PEREIRA MÉLO
  • DISTRIBUIÇÃO ESPAÇO-TEMPORAL DO NÚMERO E DO VALOR DE AUTOS DE INFRAÇÃO AMBIENTAL EM MINAS GERAIS DE 2008 A 2016

  • Data: 12/11/2020
  • Mostrar Resumo
  • NÃO INFORMADO

  • CARLOS JOSÉ DOS REIS
  • PROPOSIÇÃO DE DOIS NOVOS MÉTODOS PARA ANÁLISE DE COMPONENTES PRINCIPAIS.

  • Data: 04/08/2020
  • Mostrar Resumo
  • **

  • MÍRIAN ROSA
  • ANÁLISE DE CURVA DE LACTAÇÃO UTILIZANDO MODELOS LINEARES E NÃO LINEARES 

  • Data: 30/07/2020
  • Mostrar Resumo
  • NÃO INFORMADO

  • JAQUELINE GONÇALVES FERNANDES
  • MODELOS NÃO LINEARES DUPLO SIGMOIDAIS: UMA APLICAÇÃO PARA DESCRIÇÃO DO CRESCIMENTO DE FRUTOS DO PESSEGUEIRO.

  • Data: 15/06/2020
  • Mostrar Resumo
  • ***

  • WILSON SANCHES MATEUS
  • MODELO HIERÁRQUICO GENERALIZADO NORMAL ASSIMÉTRICO BAYESIANO APLICADO À ANÁLISE GENÔMICA.

  • Data: 11/06/2020
  • Mostrar Resumo
  • ******

  • KELLY PEREIRA DE LIMA
  • MODELOS NÃO LINEARES COM ERRO ASSIMÉTRICO PARA DESCRIÇÃO DO ACÚMULO DA MATÉRIA SECA DO FEIJOEIRO CULTIVAR BOLINHA.

  • Data: 10/06/2020
  • Mostrar Resumo
  • ***

  • EDILSON MARCELINO SILVA
  • MODELAGEM DO CO2 EVOLUIDO DE ARGISSOLO TRATADO COM DEJETOS DE SUÍNOS POR MODELOS DE REGRESSÃO NÃO LINEARES: PRIORIS DE MÁXIMA ENTROPIA.

  • Data: 09/06/2020
  • Mostrar Resumo
  • *

  • KELLY PEREIRA DE LIMA
  • MODELOS NÃO LINEARES COM ERRO ASSIMÉTRICO PARA DESCRIÇÃO DO ACÚMULO DA MATÉRIA SECA DO FEIJOEIRO CULTIVAR BOLINHA

  • Data: 22/04/2020
  • Mostrar Resumo
  • ***

  • EDILSON MARCELINO SILVA
  • MODELAGEM DO CO2 EVOLUIDO DE ARGISSOLO TRATADO COM DEJETOS DE SUÍNOS POR MODELOS DE REGRESSÃO NÃO LINEARES: PRIORI DE MÁXIMA ENTROPIA

  • Data: 01/04/2020
  • Mostrar Resumo
  • *

  • ALEXANDRE ALVES OLIVEIRA
  • MODELAGEM COMPUTACIONAL DA PROPAGAÇÃO DA LEISHMANIOSE VISCERAL CANINA UTILIZANDO O MODELO PENNA

  • Data: 05/03/2020
  • Mostrar Resumo
  • ***

  • ÍCARO VITERBRE DEBIQUE SOUSA
  • CONSTRUÇÃO ANALÍTICA DE SEMIVARIOGRAMAS MÉDIOS PARA KRIGAGEM DE BLOCOS.

  • Data: 03/03/2020
  • Mostrar Resumo
  • ****

  • GLACIANE LOPES TEIXEIRA
  • AVALIAÇÃO DE CURVAS DE CRESCIMENTO DE EQUINOS DA RAÇA CAMPOLINA UTILIZANDO MODELOS NÃO LINEARES.

  • Data: 27/02/2020
  • Mostrar Resumo
  • ****

  • HENRIQUE JOSÉ DE PAULA ALVES
  • PROPOSIÇÃO DE TESTES DE MÉDIAS ROBUSTOS E NÃO ROBUSTOS SOB DISTRIBUIÇÕES NORMAIS CONTAMINADAS E NÃO NORMAIS

  • Data: 18/02/2020
  • Mostrar Resumo
  • Não informado

  • LUCIVÂNIA FERREIRA MIRANDA
  • MODELOS NÃO LINEARES NA DESCRIÇÃO DO CRESCIMENTO DA PLANTA DE PINHÃO-MANSO

  • Data: 17/02/2020
  • Mostrar Resumo
  • NÃO INFORMADO

  • LUCIVÂNIA FERREIRA MIRANDA
  • MODELOS NÃO LINEARES NA DESCRIÇÃO DO CRESCIMENTO DA PLANTA DE PINHÃO MANSO.

  • Data: 17/02/2020
  • Mostrar Resumo
  • NÃO INFORMADO

  • JÉSSICA GRACIELLE SILVA SPURI
  • ABORDAGEM GEOMÉTRICA DOS PRINCIPAIS DEINEAMENTOS EXPERIMENTAIS E DIAGRAMAS DE HASSE.

  • Data: 12/02/2020
  • Mostrar Resumo
  • ****

  • LAERTE DIAS DE CARVALHO
  • CONTRIBUIÇÃO À GEOMETRIA ANALÍTICA DOS ESTIMADORES LASSO E ELASTIC NET.

  • Data: 11/02/2020
  • Mostrar Resumo
  • ***

  • ROGER ALMEIDA PEREIRA MELO
  • TESTE DA RAZÃO DE VEROSSIMILHANÇAS PARA A VARIÂNCIA GENERALIZADA NORMAL MULTIVARIADA.

  • Data: 07/02/2020
  • Mostrar Resumo
  • ***

  • DENISE DE ASSIS PAIVA
  • ESTUDO DE TESTES PARA TENDÊNCIA EM SÉRIES TEMPORAIS

  • Data: 07/02/2020
  • Mostrar Resumo
  • *****

  • BRUNA DA COSTA SILVA
  • TESTES COMPUTACIONALMENTE INTENSIVOS E ASSINTÓTICOS ROBUSTOS PARA ESTRUTURA DE SIMETRIA COMPOSTA.

  • Data: 07/02/2020
  • Mostrar Resumo
  • ****

  • ARIANE VIEIRA DE MELO
  • ESTATÍSTICA ESPACIAL PARA DADOS DE ÁREA NO ESTUDO DE INDICADORES ECONÔMICOS E AMBIENTAL NA AMAZÔNIA LEGAL.

  • Data: 06/02/2020
  • Mostrar Resumo
  • ***

  • Maria Luiza Capellari Leite da Silva
  • AMOSTRAGEM SEQUENCIAL BAYESIANA PARA ESTIMAÇÃO DO VIGOR  E DANOS DAS SEMENTES DE SOJA ATRAVÉS DO TESTE DE TETRAZÓLIO

  • Data: 29/01/2020
  • Mostrar Resumo
  • ***

  • PAULA RIBEIRO SANTOS
  • SELEÇÃO DE VARIÁVEIS PARA REGRESSÃO LOGÍSTICA EM UM EXEMPLO DE SEGURANÇA E FREQUÊNCIA ALIMENTAR

  • Data: 24/01/2020
  • Mostrar Resumo
  • *****

2019
Descrição
  • RODNEI ALVES MARQUES
  • EXPOENTES DE HURST EM IMAGENS INTERFEROMÉTRICAS DE UM CARCINOMA MAMÁRIO

  • Data: 08/11/2019
  • Mostrar Resumo
  • NÃO INFORMADO

  • EDEMAR APPEL NETO
  • PROPOSTA E COMPARAÇÃO DE MEDIDAS DE DEPENDÊNCIA ESPACIAL EM GEOESTATÍSTICA

  • Data: 28/06/2019
  • Mostrar Resumo
  • Não fornecido

  • LUIZ FERNANDO SILVA RESENDE
  • MODELOS PARA EVENTOS RECORRENTES NA MENSURAÇÃO DA INFLUÊNCIA DA MORTALIDADE ENTRE ABELHAS EM EXPERIMENTOS LABORATORIAIS

  • Data: 25/06/2019
  • Mostrar Resumo
  • Não informado

  • LUCAS ROBERTO DE CASTRO
  • spANOVA: BIBLIOTECA PARA ANÁLISE DE VARIÂNCIA DE EXPERIMENTOS COM DEPENDÊNCIA ESPACIAL EM AMBIENTE R

  • Data: 26/04/2019
  • Mostrar Resumo
  • Não informado

  • SÉRGIO ALBERTO JANE
  • AVALIAÇÃO DA CURVA DE CRESCIMENTO DE VARIEDADES DE CANA-DE-AÇÚCAR UTILIZANDO MODELOS NãO LINEARES

  • Data: 23/04/2019
  • Mostrar Resumo
  • NãO INFORMADO

  • CARLOS PEREIRA DA SILVA
  • USO DO ALGORITMO REVERSIBLE JUMP MARKOV CHAIN MONTE CARLO PARA SELEÇÃO DE TERMOS MULTIPLICATIVOS DO MODELO AMMI

  • Data: 12/04/2019
  • Mostrar Resumo
  • NÃO INFORMADO

  • MICHELE BARBOSA
  • ANÁLISE DE ASSOCIAÇÃO GENÔMICA AMPLA COM MÚLTIPLAS MARCAS: SELEÇÃO E ASSOCIAÇÃO GENÔMICA AMPLA UNIFICADAS

  • Data: 04/04/2019
  • Mostrar Resumo
  • NÃO DEFINIDO

  • LOURENÇO MANUEL
  • SIMULAÇÃO DE DADOS DE ÁREA EM GEE E ANÁLISE DA ADOÇÃO DE VARIEDADES MELHORADAS DE MILHO EM MOÇAMBIQUE

  • Data: 12/03/2019
  • Mostrar Resumo
  • NÃO DEFINIDO

  • PAULO CESAR OSSANI
  • PROPOSIçãO DE UM NOVO íNDICE PARA PROJETION PURSUIT NA ANáLISE DE MúLTIPLOS FATORES

  • Data: 28/02/2019
  • Mostrar Resumo
  • ***

  • THAIS DESTEFANI RIBEIRO FURTADO
  • UTILIZAÇÃO DO MÉTODO BAYESIANO NA DESCRIÇÃO DA CINÉTICA DE SECAGEM DA POLPA DE JABUTICABA POR MODELOS DE REGRESSÃO NÃO LINEAR

  • Data: 27/02/2019
  • Mostrar Resumo
  • *

  • THAIS DESTEFANI RIBEIRO FURTADO
  • UTILIZAÇÃO DO MÉTODO BAYESIANO NA DESCRIÇÃO DA CINÉTICA DE SECAGEM DA POLPA DE JABUTICABA POR MODELOS DE REGRESSÃO NÃO LINEAR

  • Data: 27/02/2019
  • Mostrar Resumo
  • *

  • LAÍS MESQUITA SILVA
  • MODELOS NÃO LINEARES: APLICAÇÃO DA ANÁLISE BAYESIANA AOS DADOS ORIGINAIS E ISOTONIZADOS DO ACÚMULO DO NITROGÊNIO NO FEIJOEIRO CV. JALO

  • Data: 26/02/2019
  • Mostrar Resumo
  • *

  • FELIPE AUGUSTO FERNANDES
  • MODELO DE VON BERTALANFFY PARA A DESCRIÇÃO DO CRESCIMENTO DE MAMÍFEROS DE CORTE

  • Data: 21/02/2019
  • Mostrar Resumo
  • ***

  • TATIANE CARVALHO ALVARENGA
  • REDES BAYESIANAS NA PREDIÇÃO DE VALORES ENERGÉTICOS DE ALIMENTOS PARA AVES

  • Orientador : RENATO RIBEIRO DE LIMA
  • Data: 20/02/2019
  • Mostrar Resumo
  • NÃO INFORMADO

  • LAÍLA LUANA CAMPOS
  • PROPOSTA DE UM TESTE DE ESFERICIDADE USANDO ESTIMADORES ROBUSTOS DO PARÂMETRO DE DISPERSÃO MULTIVARIADO

  • Data: 19/02/2019
  • Mostrar Resumo
  • ***

  • HAIANY APARECIDA FERREIRA
  • COMPONENTES DE EFEITOS DE SAFRAS REPRESENTADOS EM BIPLOTS CORRIGIDOS POR PREDIÇÕES DE MODELO GEE NA CLASSIFICAÇÃO GLANULOMÉTRICA DE CAFÉS

  • Data: 19/02/2019
  • Mostrar Resumo
  • Não informado

  • MATHEUS FERES FREITAS
  • MATRIZES SOCIOECONÔMICAS NO AJUSTE DO MODELO STARMA APLICADOS A DADOS EPIDEMIOLÓGICOS

  • Data: 08/02/2019
  • Mostrar Resumo
  • Não informado

  • LEILA MARIA FERREIRA
  • EVALUATION OF GENOME SIMILARITIES: A WAVELET-DOMAIN APPROACH

  • Data: 07/02/2019
  • Mostrar Resumo
  • ****

2018
Descrição
  • ISOLINA APARECIDA VILAS BÔAS
  • EXPERIMENTO EM PARCELAS SUBDIVIDIDAS COM TRATAMENTOS SECUNDÁRIOS EM BLOCOS INCOMPLETOS BALANCEADOS

  • Data: 20/12/2018
  • Mostrar Resumo
  • Não fornecido

  • DENIZE PALMITO DOS SANTOS
  • MODELAGEM GAMLSS DA PRESSÃO ARTERIAL SANGUÍNEA EM UM ESTUDO DE HIPOTENSÃO PÓS-EXERCÍCIO

  • Data: 17/12/2018
  • Mostrar Resumo
  • Não informado

  • MARCOS COSTA DE PAULA
  • DESEMPENHO DE INTERVALOS DE CONFIANÇA PARA A MÉDIA DE POPULAÇÕES GAMA (α, β) AVALIADO POR SIMULAÇÃO MONTE CARLO.

  • Data: 14/12/2018
  • Mostrar Resumo
  • NÃO INFORMADO

  • EDERSON DE SOUZA
  • ANÁLISE DE TERCEIRA ORDEM EM CONFIGURAÇÕES PONTUAIS

  • Data: 27/11/2018
  • Mostrar Resumo
  • NÃO INFORMADO

  • MATHEUS BERNARDES ROZENTAL DE OLIVEIRA
  • AJUSTE DE MODELOS NÃO LINEARES NA DESCRIÇÃO DO ACÚMULO DE MICRONUTRIENTES DO FEIJOEIRO CULTIVAR OURO VERMELHO

  • Data: 29/10/2018
  • Mostrar Resumo
  • NÃO INFORMADO

  • JOAQUIM FRANCISCO MAZUNGA
  • AVALIAÇÃO DA TÉCNICA DE PAPADAKIS APLICADA EM MÉTODOS DE ESTIMAÇÃO DE TAMANHO DE PARCELAS EXPERIMENTAIS NA CULTURA DE SOJA.

  • Data: 11/10/2018
  • Mostrar Resumo
  • Não informado

  • ADILSON SILVA DA COSTA
  • SIMILARIDADE DE FORMULAÇÕES DE BLENDS DE CAFÉS DE DIFERENTES QUALIDADES UTILIZANDO A ANÁLISE DE CORRESPONDÊNCIA GENERALIZADA.

  • Data: 31/08/2018
  • Mostrar Resumo
  • Não informado

  • LUCIANO RIBEIRO GALVÃO
  • ESTIMAÇÃO DE RATINGS NO FUTEBOL: CAMPEONATO BRASILEIRO DE 2017

  • Data: 06/07/2018
  • Mostrar Resumo
  • NÃO INFORMADO

  • ANDREZZA KELLEN ALVES PAMPLONA
  • SPLINES E MODELO FUNCIONAL EM BINS: ABORDAGENS INTEGRADAS À SELEÇÃO GENÔMICA

  • Orientador : JULIO SILVIO DE SOUSA BUENO FILHO
  • Data: 29/06/2018
  • Mostrar Resumo
  • *

  • PAULO CESAR MORAES RIBEIRO
  • FATORIAIS FRACIONÁRIOS EM UM EXEMPLO DE TRIAGEM DE FATORES NA NUTRIÇÃO DE BANANEIRAS

  • Data: 28/06/2018
  • Mostrar Resumo
  • NÃO DEFINIDO

  • ALLAN ALVES FERNANDES
  • OTIMIZAÇÃO DE FATORIAIS 2K OBTIDOS POR BUSCA ALEATÓRIA CONSIDERANDO MÍNIMA VARIÂNCIA DAS ESTIMATIVAS

  • Data: 20/06/2018
  • Mostrar Resumo
  • NÃO INFORMADO

  • PABLO LOURENÇO RIBEIRO DE ALMEIDA
  • ANÁLISE EXPLORATÓRIA DE DADOS DE ÁREA UTILIZANDO O R

  • Data: 19/06/2018
  • Mostrar Resumo
  • *

  • NETO PASCOAL
  • TESTE BOOTSTRAP DE NORMALIDADE UNIVARIADA BASEADO NA ENTROPIA

  • Orientador : DANIEL FURTADO FERREIRA
  • Data: 15/06/2018
  • Mostrar Resumo
  • ***

  • FERNANDO RIBEIRO CASSIANO
  • EXPOENTE DIRECIONAL DE HURST NA ANÁLISE DE SIMILARIDADE DE IMAGENS DE SEMENTES.

  • Data: 13/06/2018
  • Mostrar Resumo
  • Não informado

  • ELIAS SILVA DE MEDEIROS
  • KRIGAGEM COM REGRESSÃO ESPAÇO-TEMPORAL COM MODELOS GAMLSS SPATIO-TEMPORAL REGRESSION KRIGING WITH GAMLSS MODELS.

  • Orientador : RENATO RIBEIRO DE LIMA
  • Data: 07/06/2018
  • Mostrar Resumo
  • NÃO INFORMADO

  • FERNANDA VENTURATO ROQUIM
  • GAMLSS NA EXPERIMENTAÇÃO AGROPECUÁRIA: UM ESTUDO EM DOENÇAS PARASITÁRIAS DE BOVINOS DE LEITE

  • Data: 05/06/2018
  • Mostrar Resumo
  • NÃO DEFINIDO

  • JORGE GARCIA FILHO
  • Análise de dados de área aplicada a indicadores de seguridade rural para cultura do café.

  • Orientador : MARCELO SILVA DE OLIVEIRA
  • Data: 04/06/2018
  • Mostrar Resumo
  • NÃO INFORMADO

  • ARIANA CAMPOS FRÜHAUF
  • UDO DE MODELOS NÃO LINEARES NO ESTUDO DO CRESCIMENTO DIAMÉTRICO DE CEDRO (Cedrela fissilis).

  • Orientador : JOEL AUGUSTO MUNIZ
  • Data: 30/05/2018
  • Mostrar Resumo
  • NÃO DEFINIDO

  • VICTOR FERREIRA DA SILVA
  • MÉTODOS PARA ANÁLISE DE CONFIGURAÇÕES PONTUAIS EM REDES LINEARES.

  • Orientador : JOAO DOMINGOS SCALON
  • Data: 18/05/2018
  • Mostrar Resumo
  • Não definido

  • ÉDIPO MENEZES DA SILVA
  • MODELOS DE REGRESSÃO NA DESCRIÇÃO DO CRESCIMENTO  DE FRRUTOS DE AMORA-PRETA.

  • Data: 26/04/2018
  • Mostrar Resumo
  • ***

  • CAROLINA CRISTINA BICALHO
  • MÉTODOS NÃO PARAMÉTRICOS EM PROCESSOS PONTUAIS REPLICADOS MARCADOS EM PANIFICAÇÃO

  • Orientador : JOAO DOMINGOS SCALON
  • Data: 16/04/2018
  • Mostrar Resumo
  • NÃO DEFINIDO

  • ÉRICA FERNANDA DA CRUZ
  • EFEITO DOS PARÂMETROS DE DISPERSÃO SOBRE A DINÂMICA ESPAÇO-TEMPORAL SIMULADA DE PULGÃO APHIS GOSSYPII GLOVER EM ALGODOEIRO COM CICLO DE FOLHAGEM

  • Orientador : SOLANGE GOMES FARIA MARTINS
  • Data: 22/03/2018
  • Mostrar Resumo
  • *

  • RICARDO VITOR RIBEIRO DOS SANTOS
  • ESTUDO DOS EFEITOS DE DIFERENTES ESTRATÉGIAS DE MANEJO DE ESPÉCIES ECONOMICAMENTE IMPORTANTES PARA A PISCICULTURA BRASILEIRA: PINTADO (PSEUDOPLATYSTOMA CORRUSCANS) E DOURADO (SALMINUS BRASILIENSIS)

  • Orientador : SOLANGE GOMES FARIA MARTINS
  • Data: 13/03/2018
  • Mostrar Resumo
  • *

  • ALLANA LÍVIA BESERRA PAULINO
  • MODELO MISTO VIA MÍNIMOS QUADRADOS PARA DELINEAMENTOS DE BLENDS DE CAFÉS.

  • Data: 16/02/2018
  • Mostrar Resumo
  • NÃO INFORMADO

  • MARCELA DE MARILLAC CARVALHO
  • Aplicação da teoria de cópulas bivariadas na modelagem de dependência do retorno de ações da BM & FBOVESPA.

  • Data: 09/02/2018
  • Mostrar Resumo
  • Não informado

  • MOHAMED LEMINE OULD SID'AHMED
  • COMBINAÇÃO DE PREVISÕES: UMA ABORDAGEM USANDO WAVELETS

  • Data: 08/02/2018
  • Mostrar Resumo
  • NÃOD EFINIDO

  • PETER DE MATOS CAMPOS
  • "Método de seleção de preditores lineares geoestatísticos via abordagem do campo aleatório Gausssiano".

  • Orientador : MARCELO SILVA DE OLIVEIRA
  • Data: 08/02/2018
  • Mostrar Resumo
  • NÃO INFORMADO

  • CHARLES SHALIMAR FELIPPE DA SILVA
  • "Proposta de correção do viés na estimação da semivariância do resíduo na presença de tendência".

  • Orientador : MARCELO SILVA DE OLIVEIRA
  • Data: 06/02/2018
  • Mostrar Resumo
  • não informado

  • ALEX DE OLIVEIRA RIBEIRO
  • "Teste da herdabilidade multivariada aplicado a dados de famílias".

  • Orientador : DANIEL FURTADO FERREIRA
  • Data: 02/02/2018
  • Mostrar Resumo
  • NÃO INFORMADO

  • ELIANARA MARTINS DE ALMEIDA
  • MÉTODOS DE PROCESSOS PONTUAIS PARA ANÁLISE DE INTERAÇÃO ENTRE ÁRVORES DE ESPÉCIES NATIVAS DA AMAZÔNIA

  • Orientador : JOAO DOMINGOS SCALON
  • Data: 02/02/2018
  • Mostrar Resumo
  • NÃO DEFINIDO

2016
Descrição
  • CARLOS JOSÉ DOS REIS
  • TEORIA DOS GRUPOS NA ESTIMAÇÃO EQUIVARIANTE.

  • Data: 22/01/2016
  • Mostrar Resumo
  • Não informado

2010
Descrição
  • DORIVAL LOBATO JUNIOR
  • ANÁLISE DE DIAGNÓSTICO EM MODELOS DE REGRESSÃO NORMAL E LOGÍSTICA.

  • Data: 13/09/2010
  • Mostrar Resumo
  • ND

2009
Descrição
  • STEPHANIA MARIA TEIXEIRA FURTADO
  • USO DE MODELO MISTO PARA A ANÁLISE DE DADOS LONGITUDINAIS DE UM EXPERIMENTO COM BOVINOS EM LACTAÇÃO.

  • Data: 31/07/2009
  • Mostrar Resumo
  • ND

SIGAA | DGTI - Diretoria de Gestão de Tecnologia da Informação - Contatos (abre nova janela): https://ufla.br/contato | © UFLA | appserver6.srv6inst1 01/05/2026 18:14