| Descrição |
|
-
MOMATE EMATE OSSIFO
-
PROPOSIÇÃO DE TESTES BOOTSTRAP PARA IGUALDADE DE MATRIZES DE CORRELAÇÃO
-
Data: 28/11/2025
-
Mostrar Resumo
-
A comparação de matrizes de correlação desempenha um papel fundamental em diversas áreas, como estatística, ciência de dados e análise multivariada, pois permite investigar a estrutura de dependência entre variáveis em diferentes populações. A correlação linear é amplamente utilizada para compreender relações entre conjuntos de dados, mas a simples observação dos coeficientes par a par não é suficiente para avaliar, de forma estatística, a equivalência de duas ou mais matrizes de correlação. Nesses casos, testes assintóticos tradicionais mostram-se extremamente liberais, sobretudo em amostras pequenas ou em cenários de alta dimensionalidade. Nesse caso, o método bootstrap se destaca como uma alternativa robusta e eficiente, cuja principal vantagem é a não necessidade do conhecimento prévio da distribuição de probabilidade populacional. Diante disso, este trabalho tem como objetivo propor testes para a igualdade de matrizes de correlação em populações multivariadas, não necessariamente normais, e com capacidade de lidar com outliers e alta dimensionalidade, por meio de métodos bootstrap não paramétricos. Para tal, foram estudados os principais métodos existentes na literatura para a hipótese de homogeneidade de I matrizes de correlação populacionais e propostas versões bootstrap dos testes de Jennrich, Kullback, MPCBT (Maximum Pearson Correlation Bootstrap Test), MSCBT (Maximum Spearman Correlation Bootstrap Test), MSEDBT (Maximum Spearman Euclidean Distance Bootstrap Test) e MPEDBT (Maximum Pearson Euclidean Distance Bootstrap Test). O desempenho desses testes foi avaliado por meio de simulações de Monte Carlo, considerando a taxa de erro tipo I e o poder como medidas de desempenho, sob diferentes cenários de baixa e alta dimensionalidade e na presença de outliers. Os resultados mostraram que os testes MSEDBT e MPEDBT apresentaram os melhores desempenhos, com controle da taxa de erro tipo I, ``muito bom'' e ``bom'', respectivamente, especialmente para tamanhos amostrais maiores (n=50 e 80). Na presença de outliers, os testes MSEDBT e MSCBT foram os que melhor controlaram a taxa de erro tipo I para amostras maiores, tanto em baixa quanto em alta dimensionalidade. Assim, considerando seu desempenho superior em todos os cenários e configurações estudadas, o teste MSEDBT pode ser amplamente recomendado para testes de igualdade entre matrizes de correlação.
|
|
|
-
RAFAEL ALMEIDA PEREIRA MELO
-
PREDIÇÃO DE RISCO DE CRÉDITO COM APRENDIZADO DE MÁQUINA SUPERVISIONADO: UM ESTUDO DE CASO COM DADOS DESBALANCEADOS.
-
Data: 30/09/2025
-
Mostrar Resumo
-
Este trabalho tem como objetivo explorar o uso da Regressão Logística como ferramenta central na predição de risco de crédito, com ênfase no tratamento de dados desbalanceados - uma característica recorrente nesse tipo de problema. O modelo será avaliado por meio de métricas apropriadas, como Acurácia Balanceada, AUC (Área Sob a Curva ROC) e o coeficiente Kappa, com o intuito de garantir resultados robustos e comparáveis. A proposta visa construir um modelo preditivo interpretável, capaz de identificar inadimplentes com maior precisão, contribuindo para a aplicação prática da Regressão Logística no contexto financeiro.
|
|
|
-
GEAN PEREIRA DAMACENO
-
MODELOS DE REGRESSÃO PARA DADOS DE ÁREA COM VALORES EXTREMOS NO ESTUDO DA INCIDÊNCIA DE DENGUE EM MINAS GERAIS.
-
Data: 30/09/2025
-
Mostrar Resumo
-
A dengue tem se tornado uma ameaça crescente nos últimos anos, com surtos intensificando-se e sobrecarregando os sistemas de saúde. A propagação do vírus, transmitido pelo Aedes aegypti , está fortemente relacionada a fatores ambientais e urbanos, tornando essencial a utilização de técnicas estatísticas avançadas para entender sua disseminação e implementar ações eficazes. Modelos tradicionais de regressão, embora amplamente usados, assumem a independência das observações e não consideram a autocorrelação espacial, o que pode comprometer a precisão das estimativas em áreas geograficamente interdependentes. Para superar essa limitação, modelos espaciais como a Regressão Simultânea Autorregressiva (SAR) e a Regressão Condicional Autorregressiva (CAR) surgiram como soluções, capturando padrões espaciais e ajustando as dependências entre regiões. Contudo, esses modelos são sensíveis a valores atípicos, prejudicando a qualidade das análises. A Regressão Ponderada Geograficamente (GWR), que permite coeficientes espaciais variáveis, foi proposta como alternativa, mas também apresenta vulnerabilidade a valores extremos. A Regressão Ponderada Geograficamente Robusta (RGWR) é destacada como uma solução aprimorada, proporcionando maior resistência a outliers e oferecendo estimativas mais confiáveis. Este estudo aplica a metodologia RGWR para investigar a incidência de dengue em Minas Gerais em 2023, com o objetivo de melhorar a precisão das estimativas As variaveis do estudo, são as seguintes: incidencia de dengue como dependente. esgotamento sanitario adequado, area urbanizada, urbanização de vias públicas e arborização de vias públicas como variaveis independetes. A utilização de técnicas robustas visa proporcionar informações mais precisas para o monitoramento e combate à dengue, contribuindo para uma gestão mais eficiente e eficaz das ações de saúde pública.
|
|
|
-
LARISSA CARVALHO VILAS BOAS
-
ANÁLISE BAYESIANA DAS INTERAÇÕES GENÓTIPO X AMBIENTE E MARCADOR X AMBIENTE UTILIZANDO O MODELO AMMI-GBLUP-D EM ENSAIOS MULTIAMBIENTAIS.
-
Data: 05/09/2025
-
Mostrar Resumo
-
Nesta tese pretende-se apresentar o modelo de análise e o esquema de simulação corrrespondente para gerar conhecimentos sobre a interação entre marcadores genéticos e ambientes. Parte-se do modelo de interação entre genótipos e ambientes usando o AMMI-Bayesiano para extender este modelo em dois sentidos: a) usando as informações de efeitos de dominãncia b) usando as informações de marcadores específicos. Pretnde-se melhorar aspectos de estimação e de previsao em modelos genéticos aditivo-dominantes.
|
|
|
-
VICTÓRIA BARBOSA TAVARES
-
ANÁLISE DA BASE DOS PREÇOS DE MILHO PARA AS PRINCIPAIS PRAÇAS DE NEGOCIAÇÃO EM MINAS GERAIS POR MODELOS DE SÉRIES TEMPORAIS.
-
Data: 29/08/2025
-
Mostrar Resumo
-
O Brasil vem se tornando um dos principais países produtores e exportadores de milho, sendo uma das atividades econômicas mais relevantes exercidas no setor agropecuário nacional. O milho é um cereal de alto valor nutricional, amplamente utilizado como matéria-prima em diversos segmentos da indústria, como o setor alimentício, a produção agropecuária e até mesmo na fabricação de combustíveis renováveis, como o etanol. Conhecer como o preço dessa commodity se comporta é fundamental para a negociação dessa mercadoria, pois possibilita a maximização de receitas e a redução de riscos tanto para compradores quanto para vendedores. No mercado de derivativos, a base ou “basis” refere-se à diferença entre o preço da commodity no mercado físico e o seu preço no mercado futuro. O enfraquecimento ou fortalecimento dessa base pode indicar cenários mais ou menos favoráveis à trajetória dos preços do produto. Diante disso, este trabalho tem como objetivo ajustar modelos de séries temporais para análise da volatilidade da base de preços do milho no estado de Minas Gerais, comparando essa variação nos diferentes mercados físicos dessa região. Foram utilizados o modelo Autorregressivo Integrado e de Médias Móveis (ARIMA) e o modelo de Heteroscedasticidade Condicional Auto Regressiva Generalizada (GARCH). Os dados utilizados correspondem aos preços diários do milho em mercados físicos de diferentes praças mineiras, bem como às cotações do mercado futuro obtidas na B3, abrangendo o período de 16/07/2018 a 31/12/2024. Os modelos ajustados apresentaram bom desempenho, permitindo a realização de predições para um período de 7 e 15 dias em cada praça analisada, a modelagem mostrou que a base do milho em Minas Gerais tem volatilidade persistente, com choques que se estendem por vários períodos, permitindo prever melhor as variações e apoiar decisões mais seguras de comercialização. Com base nos critérios de avaliação aplicados, concluiu-se que os modelos foram adequados, ajustando-se bem aos dados de base diários da commodity milho nos mercados do estado de Minas Gerais, no período estudado.
|
|
|
-
GISELA HÉLNIA NUNES CHIPENETE
-
VALIDMETH: UM APLICATIVO SHINY PARA AUTOMATIZAR O MÉTODO DE VALIDAÇÃO DE TESTES DE SEMENTES.
-
Data: 25/07/2025
-
Mostrar Resumo
-
A qualidade das sementes é fator determinante para o êxito da agricultura, contribuindo diretamente para o aumento da produtividade, sustentabilidade, resistência a estresses e uso eficiente de insumos. Esse resultado é viabilizado não apenas pelos avanços em melhoramento genético, biotecnologia e boas práticas agrícolas, mas também pela atuação estruturada do Sistema Nacional de Sementes e Mudas (SNSM). Coordenado pelo Ministério da Agricultura, Pecuária e Abastecimento (MAPA) e regulamentado pela Lei nº 10.711/2003 e pelo Decreto nº 10.586/2020, o SNSM estabelece normas para produção, certificação, análise, comercialização e fiscalização de sementes e mudas. Por meio do sistema de certificação, são definidos e monitorados padrões de germinação, pureza física e identidade genética, assegurando que as sementes ofertadas ao mercado atendam aos requisitos mínimos de qualidade exigidos para o desenvolvimento seguro e eficiente da agricultura brasileira. Em vista disso, testes de qualidade de sementes são realizados com frequência e constituem a base para a tomada de decisões técnicas, comerciais e regulatórias. Uma falha na qualidade desses testes pode ocasionar prejuízos, como perdas financeiras ao produtor, impedimentos de comercialização, riscos fitossanitários, além de multas e sanções legais. Por isso, é de suma importância garantir que os resultados dos métodos analíticos aplicados sejam corretos, e capazes de demonstrar sua confiabilidade dentro dos limites de variação aceitáveis. Essa garantia é conferida por meio de um rigoroso procedimento de validação, que atesta a precisão, repetibilidade e reprodutibilidade do método utilizado. Nesse contexto, a automatização de procedimentos estatísticos tem proporcionado ganhos significativos em eficiência, economia de tempo e redução de riscos relacionados a erros operacionais. Foi desenvolvido nesta pesquisa o aplicativo web VALIDMeth v0.1, utilizando o pacote shiny em R, com o objetivo de automatizar a análise estatística exigida na validação de métodos conforme os padrões da ISTA. A ferramenta realiza, de forma integrada, testes de outliers, ANOVA, teste de Cochran, estimativas de repetibilidade e reprodutibilidade, e testes de Mandel k e h. Com interface amigável, geração de gráficos e relatórios, o aplicativo visa aumentar a eficiência, padronização e confiabilidade dos ensaios laboratoriais em sementes, beneficiando laboratórios, instituições de pesquisa e o setor regulador.
|
|
|
-
MELISSA WENDY RIBEIRO VICENTE
-
ESTUDO DE SIMULAÇÃO MONTE CARLO EM RELAÇÃO A ORDEM DE ADIÇÃO DE SUBPRODUTOS DE CAFÉ EM EXPERIMENTOS DE MISTURA UTILIZADOS NA COMPOSIÇÃO DE SILAGENS PARA RUMINANTES.
-
Data: 18/07/2025
-
Mostrar Resumo
-
A alimentação é o principal custo na criação intensiva de ruminantes, o que torna crucial a busca por estratégias para reduzir esses gastos. A utilização de resíduos agrícolas, como os subprodutos da agroindústria do café (casca úmida e casca seca), surge como uma alternativa econômica e nutricionalmente equilibrada, além de contribuir para a redução do impacto ambiental. Para otimizar o aproveitamento desses resíduos, é essencial o uso de metodologias estatísticas adequadas, como os experimentos de mistura. Experimentos de mistura investigam os efeitos de diferentes proporções de componentes em uma formulação, onde a soma das proporções deve totalizar 1. A ordem de adição dos componentes também pode influenciar as propriedades finais da mistura. A utilização de variáveis de folga é uma alternativa para lidar com regiões experimentais restritas e reduzir a colinearidade em experimentos de mistura.
Os dados para este estudo foram fornecidos pela Empresa de Pesquisa Agropecuária de Minas Gerais (EPAMIG) e se referem à composição de silagens produzidas com subprodutos do café. As misturas foram preparadas com diferentes proporções de melaço (MEL), casca de café seca (CCS) e casca de café úmida (CCU), e armazenadas em silos experimentais por 60 dias. Após a fermentação, as amostras foram coletadas, pré-secas, trituradas e encaminhadas para análise bromatológica. As variáveis-resposta analisadas foram matéria seca (MS), proteína bruta (PB), extrato etéreo (EE), digestibilidade in vitro (DIV), fibra em detergente neutro (FDN) e fibra em detergente ácido (FDA), que são indicadores da qualidade nutricional das silagens. As simulações Monte Carlo foram realizadas considerando restrições nas proporções de cada componente. A inclusão da ordem de adição dos componentes foi feita utilizando o procedimento Pair-Wise-Ordering (PWO). Três modelos estatísticos foram avaliados: Modelo de Scheffé com ordem convencional, Modelo de Scheffé com ordem de adição, e Modelo de Scheffé com ordem de adição e variáveis de folga. Os resultados das simulações Monte Carlo mostraram que a qualidade de ajuste dos modelos foi preservada para todas as variáveis, indicando um alto poder preditivo e que, a ordem de adição dos componentes indicou que a entrada inicial do componente x3 (CCU) e x2 (CCS) é recomendada, pois resultou em respostas mais amplitudes menores entre os modelos, mostrando maior estabilidade. As misturas ótimas identificadas pelos três modelos são viáveis para a composição de silagens.
|
|
|
-
SARAH MARTINS REZENDE
-
ESTIMAÇÃO DOS PONTOS CRÍTICOS DO CRESCIMENTO DE FRUTOS DE CAFÉ CONILON: INTERVALOS DE CONFIANÇA VIA BOOTSTRAP.
-
Data: 17/06/2025
-
Mostrar Resumo
-
O café conilon (Coffea canephora) é uma cultura agrícola de grande relevância econômica, especialmente em regiões tropicais, devido à sua resistência a condições adversas. Nesse contexto, o conhecimento aprofundado sobre o crescimento e desenvolvimento dos frutos é fundamental para aprimorar as práticas de manejo e elevar a produtividade e a qualidade do produto. Diante disso, este estudo teve como objetivo descrever o acúmulo de matéria seca em frutos de café conilon, com o modelo Logístico, nos clones P1, 204 e 407, com ênfase na taxa de ganho de massa seca, pontos críticos das curvas de crescimento e obtenção dos intervalos de confiança. Os dados utilizados foram obtidos a partir do estudo de Senra et al. (2022). A estimação dos pontos críticos das curvas e das raízes das derivadas foi realizada por meio do método de Newton–Raphson. Para estimar os intervalos de confiança desses pontos, aplicou-se o método de reamostragem bootstrap. A qualidade do ajuste do modelo foi avaliada pelo coeficiente de determinação (R2). Os valores estimados para o parâmetro b, que representa o momento de acúmulo máximo de massa seca, foram de 117, 84 e 59 dias após a florada para os clones P1, 204 e 407, respectivamente, com massas secas correspondentes de 0,0875 g, 0,0922 g e 0,0723 g. Com base nesses resultados, é possível classificar o desenvolvimento dos frutos como tardio (P1), intermediário (204) e precoce (407). Essa diferenciação entre os ciclos de crescimento é relevante para o planejamento do manejo, da colheita e da escolha de materiais genéticos adequados a diferentes condições de solo e clima.
|
|
|
-
VANESSA MACULAN SILVÉRIO
-
MODELO LOG-NORMAL COM FRAÇÃO DE CURA NO CONTEXTO DA REGRESSÃO DISTRIBUCIONAL
-
Data: 17/06/2025
-
Mostrar Resumo
-
O câncer é uma das principais causas de morbidade e mortalidade em todo o mundo, com grande impacto na saúde pública e na qualidade de vida dos pacientes diagnosticados. A análise de sobrevivência é uma ferramenta importante para entender o tempo até a ocorrência de eventos, como falecimento ou progressão da doença, sendo fundamental em estudos sobre câncer, especialmente quando envolvem dados censurados e fração de cura. Para construir modelos que representem esses dados, são comumente utilizados modelos probabilísticos, como as distribuições Weibull e log-normal. No entanto, modelos mais flexíveis, como os modelos aditivos generalizados para locação, escala e forma (GAMLSS), são capazes de oferecer uma modelagem mais precisa, especialmente quando os dados apresentam características complexas que não podem ser totalmente capturadas pelos modelos tradicionais. Assim, esta dissertação propõe a utilização do modelo log-normal com fração de cura dentro da estrutura dos GAMLSS. São apresentadas a formalização matemática do modelo, sua implementação no pacote gamlss do software R e sua aplicação em dados sobre câncer de pâncreas. Como resultado, a implementação da distribuição log-normal com fração de cura no contexto dos GAMLSS, aplicada a dados sobre câncer de pâncreas mostrou-se adequada, demonstrando que a metodologia adotada é eficaz para captar as particularidades da sobrevivência nessa doença. Além disso, o modelo permitiu a inclusão de covariáveis que explicam simultaneamente a mediana de sobrevivência, a variabilidade dos tempos de vida e a chance de cura, evidenciando seu potencial para aprimorar a análise de sobrevida em contextos clínicos e epidemiológicos.
|
|
|
-
DIANA DEL ROCÍO REBAZA FERNÁNDEZ
-
DESENVOLVIMENTO DE NOVAS ALTERNATIVAS DE ESTIMADORES SHRINKAGE PARA DADOS DE CONTAGENS COM SUB E SUPERDISPERSÃO
-
Data: 16/06/2025
-
Mostrar Resumo
-
Um problema que afeta tanto modelos lineares quanto modelos lineares generalizados é a multicolinearidade, sub e/ou superdispersão . Nesta pesquisa, se abordaram alternativas de estimadores shrinkage aplicadas a modelos de dados de contagem, e, com esse propósito, o trabalho está estruturado em duas partes: a primeira corresponde ao referencial teórico, e a segunda é composta por dois artigos. No primeiro artigo, foram propostos estimadores shrinkage modificados para avaliar a multicolinearidade em amostras com superdispersão, sendo sugerida uma modificação dos estimadores ridge com o intuito de obter estimativas mais precisas. Foram simuladas distribuições de Poisson e binomial negativa e, por meio de simulações de Monte Carlo, construíram-se diferentes cenários considerando variados tamanhos amostrais e graus de correlação. Os resultados mostraram que o estimador proposto apresentou maior eficiência para pequenas amostras e alta correlação, mantendo competitividade em outros cenários. O segundo artigo apresenta a adaptação de estimadores ridge ao modelo de Poisson Generalizado, caracterizado por sua flexibilidade ao incorporar um parâmetro que permite diagnosticar o grau de subdispersão e sobredispersão. Os estimadores adaptados promoveram melhor desempenho na estimação dos parâmetros, aumentando a precisão e contribuindo para a robustez da inferência estatística. Para validar a proposta, foram realizadas simulações de Monte Carlo em diferentes cenários envolvendo tamanhos amostrais variados com a inclusão de intercepto e diferentes níveis de correlação entre as variáveis independentes. Dois casos de aplicação foram analisados, um em situação de subdispersão e outro em sobredispersão, evidenciando que os estimadores ridge adaptados apresentaram desempenho consistente em relação aos erros quadráticos médios e aos erros padrão das estimativas, além de os resultados empíricos estarem em concordância com as simulações realizadas.
|
|
|
-
LUCAS PEREIRA BARBOSA
-
ANÁLISE ESTATÍSTICA DA VOLATILIDADE EM PETR4 E VALE3 COM O MODELO APARCH: UMA PERSPECTIVA SOBRE PERÍODOS DE CRISE.
-
Data: 16/06/2025
-
Mostrar Resumo
-
O risco e a quantificação da incerteza são aspectos de grande importância para o setor financeiro
de uma economia. Sob a ótica das entidades financeiras, a análise de risco possibilita a formu- lação de melhores estratégias para a gestão de carteiras de ativos e a alocação de recursos. O
objetivo deste projeto é estudar o agrupamento, persistência e assimetria na volatilidade presente nas ações da Petrobras (Petróleo Brasileiro S/A), uma entidade de economia mista controlada
pela União Federal, e da Vale do Rio Doce, uma instituição privada de controle acionário, am- bas listadas na Bolsa de Valores Brasileira, B3, durante períodos de instabilidade econômica
ou política no cenário nacional. Em um ensaio inicial, foram consideradas as séries temporais de fechamentos diários das ações preferenciais da Petrobras, simbolizadas por PETR4, e das ações ordinárias da Vale, simbolizadas por VALE3, no período de janeiro de 2007 a dezembro de 2024. A modelagem da volatilidade foi realizada utilizando o modelo Asymmetric Power Autoregressive Conditional Heteroscedasticity (APARCH), permitindo avaliar a dinâmica de assimetria e a persistência dos choques presentes nos retornos durante o período em estudo. Os resultados preliminares sugeriram que choques negativos impactaram de maneira desigual a trajetória dos preços desses ativos em comparação aos choques positivos, evidenciado por uma maior inclinação na curva de impacto. Isso revela uma maior sensibilidade dos ativos a eventos adversos, o que aumenta o risco durante períodos específicos de instabilidade.
|
|
|
-
NATIELE DE ALMEIDA GONZAGA
-
ANÁLISE DA SECAGEM DE GRÃOS DE MILHO POR MODELOS NÃO LINEARES: ABORDAGEM BAYESIANA E ESTUDO DOS PONTOS INFLUENTES.
-
Data: 30/04/2025
-
Mostrar Resumo
-
A análise da cinética de secagem de grãos é amplamente adotada em estudos aplicados, pela sua relevância como etapa fundamental para garantir a qualidade dos grãos e reduzir perdas pós-colheita. Modelos matemáticos são empregados para descrever a cinética de secagem, que representam a perda de umidade ao longo do tempo. Nesta tese, foram realizados dois ensaios com o objetivo de analisar a secagem de grãos de milho, com foco especial em estimativas dos parâmetros envolvidos, a partir tanto de métodos frequentistas quanto bayesianos, bem como analisar detalhadamente pontos influentes nas curvas de secagem. No primeiro ensaio, o estudo propôs a utilização de três modelos de regressão não linear para descrever a secagem de grãos de milho, com base em dados experimentais coletados em condições controladas. A estimação dos parâmetros dos modelos foi realizada por meio da abordagem bayesiana, que permite incorporar informações prévias. Para isso, foram adotadas distribuições a priori baseadas no princípio da máxima entropia, com o objetivo de representar o conhecimento prévio disponível. A obtenção das distribuições a posteriori dos parâmetros foi realizada por meio do método de Monte Carlo via Cadeias de Markov (MCMC), que viabiliza a realização de inferências mesmo em situações de alta complexidade computacional. No segundo ensaio, adotou-se a abordagem frequentista para a estimação dos parâmetros de cinco modelos de secagem. Além disso, foi conduzida uma análise detalhada com o objetivo de identificar os pontos influentes nas curvas de decrescimento ajustadas por cada modelo, propondo uma abordagem para identificação e interpretação de pontos influentes em curvas de decrescimento associadas à secagem, como ponto de inflexão, ponto de máxima aceleração, desaceleração assintótica e foi proposto um novo ponto influente, o P1. A identificação desses pontos foi realizada com base na análise das derivadas das funções ajustadas, permitindo captar mudanças relevantes na dinâmica da perda de umidade. Para isso, foram construídos intervalos de confiança por meio do método bootstrap. Os resultados obtidos dessa tese evidenciam que a aplicação de modelos não lineares, aliados a métodos estatísticos robustos, permite descrever com precisão o processo de secagem, além de oferecer subsídios relevantes para a tomada de decisões no controle e na otimização desse processo.
|
|
|
-
LÚCIA HELENA COSTA BRAZ
-
PROPOSIÇÃO DE TESTES DE COMPARAÇÕES MÚLTIPLAS MULTIVARIADAS COM O TRATAMENTO CONTROLE
-
Data: 29/04/2025
-
Mostrar Resumo
-
Problemas envolvendo comparações da eficiência de tratamentos para respostas multivariadas são comuns em diversas áreas do conhecimento. Em geral, os métodos de comparações utilizam a desigualdade de Bonferroni para construir testes conservativos, evitando as complexidades da distribuição exata da estatística T2max do teste (máximo de uma T2 de Hotelling). Em cenários de alta dimensionalidade, os métodos tradicionais não são viáveis, pois dependem da inversa da matriz de covariâncias amostral, que se torna singular. Para contornar este problema, o critério do traço de Dempster pode ser usado, e uma segunda alternativa é a estatística Tig do teste de Ahmad, entretanto, em ambos os casos se recorre à desigualdade de Bonferroni. Outro problema é que tanto no processo de estimação quanto no de distribuição das estatísticas para os testes de comparações múltiplas há a necessidade de lidar com métodos numéricos sofisticados e complexos. Estes fatos fazem com que estas aproximações não possam ser prontamente utilizadas. Para tentar contornar esses desafios, esta tese propõe testes de comparações múltiplas multivariadas com o tratamento controle, utilizando uma aproximação empírica para a aproximação de segunda ordem de Bonferroni e o método bootstrap não-paramétrico. O desempenho dos testes foi avaliado por meio das taxas de erro tipo I por experimento (TEE) e poder em diferentes cenários, utilizando simulação Monte Carlo. Os resultados mostraram que, para cenários homocedásticos, o teste bootstrap proposto TAB apresentou um controle mais eficaz da TEE, além de apresentar maior poder, independentemente da distribuição ser normal ou não, tanto em contextos de baixa quanto de alta dimensionalidade. Dessa forma, o teste TAB se mostrou a alternativa mais recomendada nessas situações. Para cenários heterocedásticos, não foi possível identificar um teste claramente superior, porém, em várias circunstâncias, os testes bootstrap propostos demonstraram desempenho superior em relação às suas respectivas versões assintóticas.
|
|
|
-
LUIZ FERNANDO SILVA RESENDE
-
MÉTODO DE SEGMENTAÇÃO POR BOXPLOT CIRCULAR PARA DADOS MULTIMODAIS E SUA APLICAÇÃO NA ANÁLISE DE CAPTURA DE ENXAMES DE ABELHAS COM EVENTOS RECORRENTES.
-
Data: 29/04/2025
-
Mostrar Resumo
-
A estatística circular é aplicada em diversos ramos da ciência tais como meteorologia, planejamento urbano e estudos entomológicos, principalmente quando se trata de pesquisa sobre sazonalidade, horários e direções. A presença de multimodalidade em conjuntos de dados é um desafio na análise e modelagem estatística. Esse problema também é comum em dados circulares, em que muitas vezes a segmentação de cada conjunto modal é realizada de forma empírica utilizando convenções como dias da semana, meses ou estações do ano ou utilizando algoritmos de maximização a partir da modelagem por misturas de distribuições von Mises, que exige conhecimento teórico mais avançado. Essa tese propõe um método de segmentação a partir da construção de boxplot circular. No primeiro capítulo o método foi apresentado e sua eficácia verificada através de simulação em diferentes cenários e posteriormente aplicado a conjunto de dados sobre horários de acidentes de trânsito. Verificou-se que o método proposto foi mais adequado para o estudo de multimodalidade em dados circulares ao equilibrar simplicidade e precisão. Assim, foi eficiente ao ajustar os acidentes que apresentaram multimodalidade considerando a distribuição dos horários ao longo da semana. No segundo capítulo realizou-se um experimento de captura de enxames de abelhas Apis mellifera, durante um ano, a partir da instalação de ninhos-armadilha, registrando-se dados lineares tais como altura, precipitação, umidade e velocidade do vento e as circulares: direção do vento, época de captura (mês) e ângulo do alvado, que representa o posicionamento do ninho em relação ao norte magnético. Além disso, avaliou-se a variável qualitativa cor de revestimento do ninho-armadilha. A época de captura apresentou padrões bimodais, concentradas em dois períodos sazonais: outono (abril a junho) e primavera (agosto a outubro). Assim, utilizou-se a tecnica de segmentaçao por boxplot circular para estudá-la e também realizou-se a relação entre as variáveis registradas no experimento através da correlação linear-linear, linear-circular e circular-circular de acordo com a natureza de cada variável. No terceiro capítulo, devido a presença de dados censurados, já que, as datas de captura foram registradas em intervalos, entre o último dia com ausência do enxame e o dia da observação, foi utilizada a análise de sobrevivência considerando uma mistura de von Mises para estimar a função de sobrevivência da época de captura de enxames.
|
|
|
-
ÍCARO VITERBRE DEBIQUE SOUSA
-
SEMIVARIOGRAMAS MÉDIOS PARA KRIGAGEM DE BLOCOS.
-
Data: 16/04/2025
-
Mostrar Resumo
-
Em várias áreas da ciências, tais como biológicas, ambientais, epidemiológicas, agropecuárias, entre outras possuem dados com variações no espaço. Grande parte dos estudos, mensuram-se somente as variações utilizando método estatísticos que não consideram as interações existentes entre as dimensões do espaço. Ao abordar a espacialidade em dados contínuos tem-se a existência da Geoestatística, que com o uso do semivariograma é capaz de detectar a dependência espacial com a utilização do semivariograma. Comumente, a Geoestatística utiliza-se de um preditor pontual, são os casos típicos da sua utilização. Nesse trabalho é tratado um sistema de predição para a média da variável aleatória do fenômeno para uma região retangular em um sistema bidimensional, denominado krigagem de blocos. A principal complexidade desta técnica é a modelagem da semivariância média entre os pontos e o bloco retangular em análise. Atualmente existem apenas métodos numéricos para se obter esse valor e limitado a fenômenos do modelo esférico, sendo assim, contendo erros de aproximação e limitação a diversos fenômenos. Apresenta-se então a construção analítica dos semivariogramas médicos utilizados para a kriagem de blocos em regiões retangulares para modelos usuais de semivariogramas, sendo assim criando a possibilidade de se aplicar a técnica em diversas situações páticas antes não possíveis. Toda a técnica para se construir os semivariogramas médios de maneira analítica é apresentada e posteriormente aplicada em um aplicativo desenvolvido em Shiny App, com intuito de facilitar ao usuário final a aplicação da técnica. O vanço da krigagem de blocos pode solucionar problemas de predição de média para diversos fenômenos, como produração agrícola, quantitativos de blocos de mineração ou qualquer outra necessidade de se obter valores médios da variável aleatória, considerando a espacialidade do fenômeno.
|
|
|
-
ANTONIO MENDES MAGALHÃES JÚNIOR
-
UTILIZAÇÃO DE ALGORITMOS DE MACHINE LEARNING NA CLASSIFICAÇÃO DE SEMENTES POR MEIO DE DESCRITORES DE TEXTURA DE HARALICK: UMA APLICAÇÃO SHINY
-
Data: 18/03/2025
-
Mostrar Resumo
-
O Brasil possui um dos maiores mercados mundiais de sementes, responsável pela movi- mentação de bilhões de reais anualmente. A relevância deste mercado torna de grande importância a análise de sementes, a fim de identificar possíveis danos e o potencial de germinação das mesmas. As análises geralmente são realizadas por avaliadores, entretanto é um processo que carrega consigo uma subjetividade inerente e é de difícil escalabilidade. Buscando mitigar essa subjetividade, aumentar a velocidade das análises e a redução de custos, técnicas de Machine Learning, como Redes Neurais Artificiais e Random Forest podem ser utilizadas para auxiliar nessas análises. Entretanto a utilização dessas técnicas requer um certo grau de conhecimento do usuário, dificultando sua difusão. A utiliza- ção de uma aplicação web com interface para o usuário constitui possível solução para este problema. Neste trabalho, o objetivo é a criação de uma aplicação web utilizando framework Shiny em conjunto com técnicas de Machine Learning para a classificação de imagens de sementes. Para tal, é utilizada a linguagem R em conjunto com o framework Shiny e o usuário pode realizar o treinamento e validação de modelos de Machine Learning para a classificação de imagens baseada em descritores de textura de Haralick, além de salvar estes modelos para utilização futura em novos dados.
|
|
|
-
ANTONIO MENDES MAGALHÃES JÚNIOR
-
DESENVOLVIMENTO DE UMA INTERFACE GRÁFICA PARA UTILIZAÇÃO DE ALGORITMOS DE APRENDIZADO DE MÁQUINA NA CLASSIFICAÇÃO DE IMAGENS: UM ESTUDO DE CASO NA SELEÇÃO DE GRÃOS DE SEMENTES.
-
Data: 17/03/2025
-
Mostrar Resumo
-
O Brasil possui um dos maiores mercados mundiais de sementes, responsável pela movi- mentação de bilhões de reais anualmente. A relevância deste mercado torna de grande importância a análise de sementes, a fim de identificar possíveis danos e o potencial de germinação das mesmas. As análises geralmente são realizadas por avaliadores, entretanto é um processo que carrega consigo uma subjetividade inerente e é de difícil escalabilidade. Buscando mitigar essa subjetividade, aumentar a velocidade das análises e a redução de custos, técnicas de Machine Learning, como Redes Neurais Artificiais e Random Forest podem ser utilizadas para auxiliar nessas análises. Entretanto a utilização dessas técnicas requer um certo grau de conhecimento do usuário, dificultando sua difusão. A utiliza- ção de uma aplicação web com interface para o usuário constitui possível solução para este problema. Neste trabalho, o objetivo é a criação de uma aplicação web utilizando framework Shiny em conjunto com técnicas de Machine Learning para a classificação de imagens de sementes. Para tal, é utilizada a linguagem R em conjunto com o framework Shiny e o usuário pode realizar o treinamento e validação de modelos de Machine Learning para a classificação de imagens baseada em descritores de textura de Haralick, além de salvar estes modelos para utilização futura em novos dados.
|
|
|
-
IURI DOS SANTOS MANOEL
-
USO DE MÉTODOS ROBUSTOS PARA TRATAMENTO DE OUTLIERS NA ESTIMAÇÃO DE PARÂMETROS DO MODELO LOGÍSTICO.
-
Data: 06/03/2025
-
Mostrar Resumo
-
Em análise de dados é comum utilizar modelos para descrever a relação entre as variáveis em estudo. Entretanto, quando há outliers no conjunto amostral, as estimativas dos parâmetros do modelo podem ser tendenciosas. Desse modo, a detecção e tratamento adequado de outliers é imprescindível para garantir resultados representativos. Neste contexto, métodos robustos podemser uma solução para lidar com outliers, pois podem mitigar os efeitos que esses valores têm em estimativas de interesse. Entre a diversidade de metodologias robustas difundidas na literatura, destaca-se os métodos robustos Jackknife e Least Trimmed Squares (LTS). Esses métodos são eficientes e versáteis na seleção de subconjuntos amostrais com menos outliers que o conjunto amostral. Isso permite selecionar uma proporção da amostra que a melhor representa. Diante do exposto, este trabalho tem como objetivo propor metodologias robustas inovadoras aplicadas na descrição de curvas de crescimento. Esses métodos estão apresentados em três capítulos em que a proposta é obter um ajuste do modelo não linear Logístico que melhor representa o conjunto de dados. No primeiro capítulo, o método de reamostragem Jackknife é implementado ao considerar estimativas para o coeficiente de curtose como critério de seleção. Já no segundo capítulo, o método LTS é implementado ao considerar partições da amostra para selecionar valores de acordo com a soma de quadrados dos desvios (SQD). Ressalta-se que nesses dois primeiros capítulos as metodologias propostas são aplicadas na descrição de um conjunto de dados simulados via Monte Carlo. Por fim, no terceiro capítulo ambos os métodos são aplicados na descrição de um conjunto de dados reais. Os dados são de cunicultura oriundos do Departamento de Zootecnia da Universidade Federal de Lavras. As medidas observadas são o peso e o comprimento da pata dianteira dos coelhos. Para a implementação das metodologias, é considerado um ponto de ruptura como critério para determinar o tamanho dos subconjuntos selecionados para o ajuste. Além disso, a comparação entre ajustes é feita pelo desvio médio absoluto (DMA). As metodologias propostas neste trabalho são promissoras em ajustes do modelo Logístico na descrição de curvas crescimento. O ponto de ruptura e o DMA são apropriados como critérios para determinar o tamanho do subconjunto amostral e comparação entre os ajustes, respectivamente.
|
|
|
-
NOÉ OSÓRIO MACÁRIO
-
AVALIAÇÃO DE MODELOS DE APRENDIZADO DE MÁQUINA PARA PREDIÇÃO DO DIABETES MELLITUS.
-
Data: 20/02/2025
-
Mostrar Resumo
-
O presente trabalho avalia o desempenho de diferentes modelos de aprendizado de máquina (AM) na predição de Diabetes, uma condição crônica de grande relevância para a saúde pública. Utilizando dados do VIGITEL 2023, que incluem mais de 21 mil observações, foi realizado um processo de pré-processamento completo, que envolveu seleção de variáveis, balanceamento de classes, tratamento de valores ausentes e padronização dos dados. Os algoritmos analisados foram Árvores de Decisão, Florestas Aleatórias, Naive Bayes, Redes Neurais Artificiais e XGBoost. A avaliação do desempenho dos modelos foi conduzida com base em métricas como sensibilidade e área sob a curva ROC, fundamentais para identificar casos positivos e realizar uma discriminação eficiente entre as classes. O modelo XGBoost se destacou como o mais eficaz, apresentando as melhores métricas de sensibilidade, especificidade e área sob a curva ROC em quase todas as abordagens (considerandas todas as variáveis, MIC - Maximal Information Coefficient e PCA - Principal Component Analysis), tanto para dados balanceados quanto desbalanceados, o que evidencia sua superior capacidade preditiva. Em contraste, o modelo de Árvore de Decisão obteve o desempenho mais inferior, destacando suas limitações quando aplicado a dados desbalanceados. Os resultados reforçam o potencial do aprendizado de máquina na detecção precoce de doenças crônicas, como o Diabetes, sublinhando sua relevância para aprimorar diagnósticos médicos, otimizar custos e fornecer suporte crucial para intervenções clínicas mais eficazes.
|
|
|
-
ELIAS MANENSA SABE
-
MODELOS ADITIVOS GENERALIZADOS PARA LOCAÇÃO, ESCALA E FORMA: ANÁLISE HISTÓRICA E A PROPOSIÇÃO DE NOVAS DISTRIBUIÇÕES ZERO-AJUSTADAS.
-
Data: 18/02/2025
-
Mostrar Resumo
-
Do ponto de vista da classe dos modelos de regressão remontam ao século XIX e visa compreender como um conjunto de variáveis preditoras influencia ou explica uma ou mais variáveis respostas. Dentro dessa classe de modelos de regressão univariados, podemos construir uma linha histórica que começa com os modelos lineares (LM), seguidos pelos modelos lineares generalizados (GLM), modelos aditivos generalizados (GAM) e, finalmente, os modelos aditivos generalizados para locação, escala e forma (GAMLSS), também conhecidos atualmente como modelos de regressão distribucional. Os GAMLSS podem ser considerados os modelos de regressão mais flexíveis disponíveis na literatura, dada sua versatilidade para modelar respostas com diferentes características, como, por exemplo, forte assimetria, diferentes graus de curtose ou excesso de zeros. Este estudo teve objetivo construir distribuições contínuas com probabilidade extra de ocorrência de zeros (zero-ajustadas) utilizando os modelos aditivos generalizados para locação, escala e forma (GAMLSS). Para alcançar o objetivo geral, foram elencadas duas etapas. A primeira etapa, é apresentado um artigo que versa sobre a evolução histórica dos GAMLSS, desde seus primórdios, destacando suas principais contribuições e inovações em diversas áreas do conhecimento. Já à segunda etapa, é apresentado um artigo que busca contribuir para o avanço da modelagem de dados com os GAMLSS, focando em respostas contínuas positivas com excesso de zeros, desenvolvendo novas distribuições zero-ajustadas. Foram propostas duas distribuições pertencentes à família Box--Cox: Box-Cox Cole e Green Zero-Ajustada (zBCCG) e Box-Cox Exponencial Potência Zero-Ajustada (zBCPE). Os estudos de simulação mostraram que os estimadores de máxima verossimilhança para os parâmetros das distribuições zBCCG e zBCPE fornecem resultados consistentes para diferentes tamanhos amostrais e cenários, incluindo distribuições simétricas, assimétricas positivas e negativas, bem como cenários platicúrticos e leptocúrticos. Para o estudo de caso analisado a distribuição zBCPE apresentou maior flexibilidade e melhor desempenho estatístico em comparação a zBCCG. Assim pode-se concluir que, os modelos GAMLSS têm um impacto significativo em diversas áreas do conhecimento, como evidenciado pela crescente produção científica, além de sua reconhecida flexibilidade na modelagem de dados com características complexas.
|
|
|
-
RAUL REZENDE LEITE
-
MODELOS NÃO LINEARES NO ESTUDO DO ACÚMULO DE MATÉRIA SECA DE PLANTAS DE SOJA SOB O EFEITO DE DIFERENTES TRATAMENTOS
-
Data: 18/02/2025
-
Mostrar Resumo
-
A soja é uma espécie vegetal atualmente de grande relevância mundial. O grão é a parte da planta de maior interesse sendo uma commoditie negociada nas bolsas de valores de todo o mundo. Sendo que no início da utilização da soja no Brasil, toda a parte aérea da planta e os grãos, eram alimento para os ruminantes. O Brasil está em primeiro lugar no ranking de maiores produtores mundiais do grão. Como o crescimento vegetal apresenta comportamento sigmoidal, o qual é bem ajustado por meio de modelos não lineares, este trabalho teve como objetivo comparar o ajuste dos modelos não lineares Logístico, Gompertz e von Bertalanffy aos dados de acúmulo de Mst, Msc, Msf e Msr em grama/m², cultivadas nas condições IPTP, ISFV, NIFV e NIFF em relação aos dias após a emergência das plantas. Os dados analisados foram obtidos e adaptados de Pereira (2002). O experimento foi conduzido no ano agrícola 1998/1999, na Estação Experimental Vila Chaves, no Câmpus da Universidade Federal de Viçosa, localizada no município de Viçosa (MG). Os pressupostos de normalidade, homocedasticidade e independência residual foram verificados com os testes de Shapiro-Wilk, Breusch-Pagan e Durbin-Watson, respectivamente. Os modelos foram ajustados pelo método de mínimos quadrados utilizando o algoritmo de Gauss-Newton por meio do software R. A qualidade do ajuste foi baseada nos valores do coeficiente de determinação (R²), do desvio padrão residual (DPR) e do critério de informação de Akaike (AIC). Foram calculados as estimativas e os intervalos de confiança para cada um dos parâmetros dos modelos que melhor se ajustaram aos dados. E foram gerados os gráficos para cada variável de cada tratamento com os modelos inicialmente ajustados. Para a variável Mst com o efeito do tratamento IPTP o modelo mais adequado foi o von Bertalnffy e para os demais tratamentos o modelo Logístico. Para a variável Msc com o efeito dos tratamentos IPTP e ISFV o modelo mais adequado foi o Logístico e para os tratamentos NIFV e NIFF o modelo Gompertz foi mais adequado. Para a variável Msf com o efeito dos tratamentos IPTP e NIFV o modelo von Bertalanffy foi o mais adequado, para o tratamento ISFV o modelo Logístico e para o tratamento NIFF o modelo Gompertz. E para a variável Msr com o efeito do tratamento IPTP nenhum dos modelos testados se ajustou aos dados e para os demais tratamentos o modelo Logístico foi o mais adequado.
|
|
|
-
LEONARDO BIAZOLI
-
INFERRING THE IMPACT OF INTERNATIONAL MOBILITY OF BRAZILIAN RESEARCHERS USING LARGE-SCALE BIBLIOMETRIC DATASETS.
-
Data: 13/02/2025
-
Mostrar Resumo
-
International mobility of researchers plays a significant role in a globalized context, enhancing the internationalization of science by providing scientists with access to transnational collaboration networks. Thus, while the countries of origin of mobile scientists may experience losses in human capital, they establish international connections that can yield significant benefits for the advancement of research in the long term. This dynamic can influence the socioeconomic and innovative development of nations, posing challenges for researchers and policymakers. Many studies on academic mobility involving bibliometric data analysis face challenges in data collection, organization, and while establishing causal relationships. For the latter, the literature reports the use of quasi-experimental models. The overarching goal of this study is to assess the impact of international mobility on the academic careers of Brazilian researchers in the fields of health and life sciences., focusing on movements between 2010 and 2016. To achieve this, it is necessary to organize and visualize bibliometric data from Scopus to identify patterns in the trajectories of Brazilian health researchers and understand the main countries involved in migration flows. It is worth noting that the complexity and scale of the database present challenges, such as systematic biases and difficulties in author identification. All these challenges are thoroughly addressed, and an in-depth exploratory data analysis is conducted, using propensity score matching in an initial study of causal effects. In a second study a generalized synthetic control model was employed to estimate the causal effects of researchers’ international mobility, accounting for multiple treatment periods. This model was applied using a sample of non-migrant researchers matched to migrant researchers through the propensity score matching method. By applying quasi-experimental models like synthetic control, the study sought to understand the dynamics and impacts of this migration on the careers of Brazilian researchers, providing a broader perspective on the phenomenon. The findings highlight the United States, Canada, and the United Kingdom as the primary destinations for Brazilian researchers in health and life sciences, indicating that these movements predominantly occur toward developed nations in the Global North. Exploratory results also revealed that Medicine, Agriculture, and Biochemistry, Genetics, and Molecular Biology emerged as the dominant fields among both migrant and non-migrant researchers. The causal effects suggest that international mobility leads to changes in the variables analyzed, including citations received, SJR (Scientific Journal Rankings), and research collaboration. This study offers guidance on using synthetic control models in bibliometric data analyses. In the third work, we present the technological outcome of this research, which is the CapesData package, developed in the R programming language. It compiles mobility data published on the CAPES portal and serves as an additional tool to facilitate the monitoring of Brazilian researchers' mobility. This dissertation provides a comprehensive and detailed approach to statatistical methods for inferring from observational data in the field of the Science of Science. Furthermore, it provides valuable insights for the development of science internationalization policies. The methodology applied can also be extended to analyze the effects of international mobility in other fields of knowledge.
|
|
|
-
ROXANA CHURATA HUACANI
-
PARAMETRIZAÇÕES DE MODELOS NÃO LINEARES NO ESTUDO DA CURVA DE CRESCIMENTO DE LHAMAS (LAMA GLAMA) NO PRIMEIRO ANO DE IDADE.
-
Data: 12/02/2025
-
Mostrar Resumo
-
As curvas de crescimento são uma maneira de descrever o crescimento em um determinado período do tempo. Existem muitas funções não-lineares (Gompertz, Richards, von Bertalanffy e Logístico) que têm sido amplamente utilizadas em diferentes espécies pecuárias para descrever o desenvolvimento do peso corporal. A maioria dos modelos não lineares utilizados na modelagem de curvas de crescimento em animais domésticos apresentam diferentes parametrizações e podem ser razoáveis do ponto de vista teórico, mas podem ter parâmetros que são difíceis de interpretar, o que, na prática, pode dificultar seu entendimento, afetar medidas de não linearidade e inferências sobre parâmetros. Nesse sentido, os objetivos deste trabalho foram estudar diferentes parametrizações dos modelos não lineares de Brody, von Bertalanffy e Gompertz na descrição da curva de crescimento de lhamas desde o nascimento até os 12 meses de idade bem como avaliar os efeitos ambientais de sexo e tipo do animal sobres os parâmetros da curva de crescimento. Os dados analisados foram obtidos do Centro Experimental Quimsachata, pertencente ao Instituto Nacional de Innovación Agraria de Puno, Peru. Foram utilizados os pesos corporais individuais de lhamas machos e fêmeas pertencentes a dois tipos do animal: K'ara e Ch'accu. A qualidade do ajuste foi avaliada com base nos valores do Coeficiente de determinação ajustado (R2), Desvio padrão residual (DPR), Índice de concordância de Willmott(d) e as medidas de não linearidade, tanto a intrínseca (cI) quanto a paramétrica (cθ). Todos os modelos apresentaram bons ajustes, porém as parametrizações 1 e 2 do modelo Brody apresentaram os maiores valores de R2 (99,5%), os menores valores do DPR (0,67), os maiores valores de d (0,999) e os valores mais baixos das medidas de não linearidade, indicando que são os modelos mais adequados para a descrição da curva de crescimento de lhamas ao longo de um ano de idade, fornecendo assim estimativas mais confiáveis dos parâmetros. Os efeitos de sexo e tipo foram significativos, sendo que as lhamas fêmeas atingiram maiores pesos assintóticos (41,68 kg) do que os machos (40,98 kg), enquanto as lhamas de tipo K’ara apresentaram maiores pesos assintóticos do que os de tipo Ch'accu.
|
|
|
-
OSVALDO MOISÉS ASSINDE
-
INFERÊNCIA SOBRE GRÁFICOS DE RADAR: UM EXEMPLO NO MELHORAMENTO VEGETAL.
-
Data: 31/01/2025
-
Mostrar Resumo
-
O objetivo deste trabalho é apresentar as pectos de inferência (intervalos de redibilidade) para uma ferramenta de visualização de estatística multivariada (gráficos de radar). As utilizações encontradas para este gráfico na literatura nunca envolvem inferência e esta seria a novidade técnica de maior importância da dissertação. Foi simulado um experimento do tipo empregado no melhoramento genético vegetal (com valores paramétricos controlados para os genótipos em várias caracteres). Também foi reavaliado um experimento da literatura que empregadva os gráficos de radar, sem a inferência que estamos propondo. Os resltados são animadores pois as regiões de credibilidade obtidas com inferência Bayesiana univariada para cada caractere sugerem que a adoção da técnica pode ser útil ao menos em dois cenários: seleção para multiplos caracteres e seleção para múltiploa ambientes, considerando cada ambiente como um caractere diverso.
|
|