Análise de desempenho, custo energético e acurácia de um módulo de um modelo numérico de previsão meteorológica usando precisão reduzida

Detalhes bibliográficos
Ano de defesa: 2025
Autor(a) principal: Sudo, Marcelo Augusto [UNIFESP]
Orientador(a): Fazenda, Álvaro Luiz
Banca de defesa: Não Informado pela instituição
Tipo de documento: Dissertação
Tipo de acesso: Acesso aberto
dARK ID: ark:/48912/001300001ktzs
Idioma: por
Instituição de defesa: Universidade Federal de São Paulo
Programa de Pós-Graduação: Não Informado pela instituição
Departamento: Não Informado pela instituição
País: Não Informado pela instituição
Palavras-chave em Português:
Link de acesso: https://hdl.handle.net/11600/73949
Resumo: A Computação Aproximada é um paradigma utilizado por pesquisadores da área de Ciência da Computação que permite reduzir ou simplificar a precisão com que os dados são processados e armazenados, aceitando perdas de acurácia ou precisão dentro de limites toleráveis. A redução de precisão e precisão mista são as técnicas existentes mais estudadas de acordo com uma recente Revisão Sistemática da Literatura. Em complemento a esse fato, a NVIDIA lançou GPUs que possuem uma arquitetura denominada Tensor Core, com o objetivo de acelerar algumas classes de algoritmos, como a multiplicação de matrizes, e que utiliza os citados conceitos. Este estudo tem como objetivo demonstrar a aplicação da técnica de precisão reduzida em computação científica através de um modelo numérico chamado MPAS, mais especificamente em sua rotina de microfísica das nuvens chamada WSM6. Estudos prévios da técnica foram experimentados em algoritmos de multiplicação de matrizes e de estêncil, para então aplicar os conhecimentos adquiridos no modelo numérico de previsão meteorológica mencionado. A análise inicial relaciona os ganhos de desempenho e de energia obtidos em relação às possíveis perdas de acurácia. Os resultados desta fase da pesquisa mostraram que foi possível obter uma aceleração de 16.60× com um algoritmo otimizado de multiplicação de matrizes presente na função intrínseca matmul usando dados de ponto flutuante de 16 bits (FP16) com Tensor Core em GPU, comparado com uma versão ingênua do mesmo algoritmo, usando ponto flutuante de 64 bits (FP64) em CPU, além de um ganho energético de 57%. Para esta mesma aplicação, a perda de acurácia no resultado final foi de 10−26 a 10−1, aproximadamente. Para o algoritmo de estêncil, foi possível obter um ganho de 1.60× apenas reduzindo a precisão das variáveis de 64 bits para uma versão com ponto flutuante de 16 bits, e ganho energético de 40%, com perda de precisão de 0 a 10−9, para 300 iterações. Na etapa pricipal da pesquisa, os resultados mostraram que a eficiência energética (GFLOPS/W) aumenta à medida que a precisão diminui em intervalos de previsão entre 1 e 24 horas. Os testes de desempenho indicam uma aceleração de apenas 1.15× usando uma CPU tradicional (FP64 a FP32) com um único núcleo executando uma thread. No entanto, para GPUs, há uma significativa aceleração de 109.28× ao usar FP16 em GPU em comparação com FP64 na CPU. A precisão foi avaliada usando o Erro Quadrático Médio (EQM) e diferença máxima para variáveis específicas (qv, qc, qi, qr, qs, qg) intimamente relacionadas à microfísica. As diferenças mais significativas foram observados na variável qv, com EQM variando de 10−11 a 10−6 e diferenças máximas de 10−3 a 10−2. A média do erro dos mínimos quadrados para todas variáveis seguiu tendência semelhante, com valores em torno 10−5. A conclusão que se chega a partir desses estudos é que foi possível obter um ganho de desempenho com uma perda aceitável de acurácia, para o modelo numérico estudado, viabilizando a investigação da aplicação de técnicas em outros modelos numéricos, assim como em GPUs mais atualizadas com variação de compiladores.
id UFSP_4ed500223d8d93bc9f66bfbbd8eef9a6
oai_identifier_str oai:repositorio.unifesp.br:11600/73949
network_acronym_str UFSP
network_name_str Repositório Institucional da UNIFESP
repository_id_str
spelling http://lattes.cnpq.br/7606159905559544Sudo, Marcelo Augusto [UNIFESP]http://lattes.cnpq.br/1750775781178709Fazenda, Álvaro LuizOnline pelo Teams2025-04-07T15:26:46Z2025-04-07T15:26:46Z2025-02-20A Computação Aproximada é um paradigma utilizado por pesquisadores da área de Ciência da Computação que permite reduzir ou simplificar a precisão com que os dados são processados e armazenados, aceitando perdas de acurácia ou precisão dentro de limites toleráveis. A redução de precisão e precisão mista são as técnicas existentes mais estudadas de acordo com uma recente Revisão Sistemática da Literatura. Em complemento a esse fato, a NVIDIA lançou GPUs que possuem uma arquitetura denominada Tensor Core, com o objetivo de acelerar algumas classes de algoritmos, como a multiplicação de matrizes, e que utiliza os citados conceitos. Este estudo tem como objetivo demonstrar a aplicação da técnica de precisão reduzida em computação científica através de um modelo numérico chamado MPAS, mais especificamente em sua rotina de microfísica das nuvens chamada WSM6. Estudos prévios da técnica foram experimentados em algoritmos de multiplicação de matrizes e de estêncil, para então aplicar os conhecimentos adquiridos no modelo numérico de previsão meteorológica mencionado. A análise inicial relaciona os ganhos de desempenho e de energia obtidos em relação às possíveis perdas de acurácia. Os resultados desta fase da pesquisa mostraram que foi possível obter uma aceleração de 16.60× com um algoritmo otimizado de multiplicação de matrizes presente na função intrínseca matmul usando dados de ponto flutuante de 16 bits (FP16) com Tensor Core em GPU, comparado com uma versão ingênua do mesmo algoritmo, usando ponto flutuante de 64 bits (FP64) em CPU, além de um ganho energético de 57%. Para esta mesma aplicação, a perda de acurácia no resultado final foi de 10−26 a 10−1, aproximadamente. Para o algoritmo de estêncil, foi possível obter um ganho de 1.60× apenas reduzindo a precisão das variáveis de 64 bits para uma versão com ponto flutuante de 16 bits, e ganho energético de 40%, com perda de precisão de 0 a 10−9, para 300 iterações. Na etapa pricipal da pesquisa, os resultados mostraram que a eficiência energética (GFLOPS/W) aumenta à medida que a precisão diminui em intervalos de previsão entre 1 e 24 horas. Os testes de desempenho indicam uma aceleração de apenas 1.15× usando uma CPU tradicional (FP64 a FP32) com um único núcleo executando uma thread. No entanto, para GPUs, há uma significativa aceleração de 109.28× ao usar FP16 em GPU em comparação com FP64 na CPU. A precisão foi avaliada usando o Erro Quadrático Médio (EQM) e diferença máxima para variáveis específicas (qv, qc, qi, qr, qs, qg) intimamente relacionadas à microfísica. As diferenças mais significativas foram observados na variável qv, com EQM variando de 10−11 a 10−6 e diferenças máximas de 10−3 a 10−2. A média do erro dos mínimos quadrados para todas variáveis seguiu tendência semelhante, com valores em torno 10−5. A conclusão que se chega a partir desses estudos é que foi possível obter um ganho de desempenho com uma perda aceitável de acurácia, para o modelo numérico estudado, viabilizando a investigação da aplicação de técnicas em outros modelos numéricos, assim como em GPUs mais atualizadas com variação de compiladores.Approximate Computing is a paradigm used by researchers in the field of Computer Science that allows reducing or simplifying the precision with which data is processed and stored, accepting losses in accuracy or precision within tolerable limits. Reduced precision and mixed precision are the most studied existing techniques according to a recent Systematic Literature Review. In addition to this fact, NVIDIA launched GPUs that have an architecture called Tensor Core, with the aim of accelerating some classes of algorithms, such as matrix multiplication, and which uses the aforementioned concepts. This study aims to demonstrate the application of the reduced precision technique in scientific computing through a numerical model called MPAS, more specifically in its cloud microphysics routine called WSM6. Previous studies of the technique were experimented with matrix multiplication and stencil algorithms, to then apply the knowledge acquired in the aforementioned numerical meteorological forecast model. The initial analysis relates the performance gains obtained in relation to possible losses in accuracy. The results of this phase of the research showed that it was possible to obtain a speedup of 16.60× with an optimized matrix multiplication algorithm present in the matmul intrinsic function using 16-bit floating point data (FP16) with Tensor Core, compared to a naive version of the same algorithm, using 64-bit floating point (FP64). For this same application, the loss of accuracy in the final result was approximately 10−26 to 10−1. For the stencil algorithm, it was possible to obtain a gain of 160× just by reducing the precision of the 64-bit variables to a 16-bit floating point version, with a loss of precision from 0 to 10−9, for 300 iterations. In the main stage of the research, the results showed that energy efficiency (GFLOPS/W)increases as accuracy decreases in forecast intervals between 1 and 24 hours. Performance tests indicate a speedup of just 1.15× when using a traditional CPU (FP64 to FP32) with a single core running one thread. However, for GPUs, there is a significant 109.28× speedup when using FP16 compared to FP64 on the CPU. Accuracy was assessed using Mean Squared Error (MSE) and maximum difference for specific variables (qv, qc, qi, qr, qs, qg) closely related to microphysics. The most significant differences were observed in the qv variable, with MSE ranging from 10−11 to 10−6 and maximum differences from 10−3 to 10−2. The average MSE for all variables followed a similar trend, with values around 10−5. The conclusion reached from these studies is that it was possible to obtain a performance gain with an acceptable loss of accuracy, for the numerical model studied, making it possible to investigate the application of techniques in other numerical models, as well as in more up-to-date GPUs with compiler variation.Não recebi financiamentoalvaro.fazenda@unifesp.br113 f.SUDO, MARCELO AUGUSTO. Análise de desempenho, custo energético e acurácia de um módulo de um modelo numérico de Previsão Meteorológica usando Precisão Reduzida. 2025. 113 p. Dissertação (Mestrado em Ciências– Ciência da Computação)– Instituto de Ciência e Tecnologia, Universidade Federal de São Paulo, São José dos Campos–SP, 2025.https://hdl.handle.net/11600/73949ark:/48912/001300001ktzsporUniversidade Federal de São Pauloinfo:eu-repo/semantics/openAccess7. Energia limpa e acessível9. Indústria, inovação e infraestrutura13. Ação contra a mudança global do climaComputação aproximadaPrecisão mistaModelo numérico de previsão meteorológicaAnálise de desempenho, custo energético e acurácia de um módulo de um modelo numérico de previsão meteorológica usando precisão reduzidaAnalysis of performance, energy and accuracy of a module of a numerical weather forecasting model using reduced precisioninfo:eu-repo/semantics/masterThesisinfo:eu-repo/semantics/publishedVersionreponame:Repositório Institucional da UNIFESPinstname:Universidade Federal de São Paulo (UNIFESP)instacron:UNIFESPInstituto de Ciência e Tecnologia (ICT)Ciência da ComputaçãoCiência da ComputaçãoSistemas ComputacionaisORIGINALMonografia_MarceloSudo.pdfMonografia_MarceloSudo.pdfapplication/pdf16691758https://repositorio.unifesp.br/bitstreams/8ea625c7-19c5-4a1e-ae2e-204b31f9689b/download3748df8afc50d2a5488fc6e54d7759acMD51LICENSElicense.txtlicense.txttext/plain; charset=utf-86456https://repositorio.unifesp.br/bitstreams/a670d2c4-bacd-43a9-9f3a-c1929dad391f/download79881d6dea480587c66312d1102a8942MD52TEXTMonografia_MarceloSudo.pdf.txtMonografia_MarceloSudo.pdf.txtExtracted texttext/plain102952https://repositorio.unifesp.br/bitstreams/e1b731f4-25a9-417c-94eb-421d620ce78d/downloadcb04bc3746720ea55fd425acbfdc84efMD53THUMBNAILMonografia_MarceloSudo.pdf.jpgMonografia_MarceloSudo.pdf.jpgGenerated Thumbnailimage/jpeg3822https://repositorio.unifesp.br/bitstreams/ceb9bb6a-bf0e-4750-9d4e-806aa402342f/download1d6b3741d0e951d6d683e4d1eda09326MD5411600/739492025-04-08 04:04:11.718oai:repositorio.unifesp.br:11600/73949https://repositorio.unifesp.brRepositório InstitucionalPUBhttp://www.repositorio.unifesp.br/oai/requestbiblioteca.csp@unifesp.bropendoar:34652025-04-08T04:04:11Repositório Institucional da UNIFESP - Universidade Federal de São Paulo (UNIFESP)falsePGgxPjxzdHJvbmc+TGljZW7Dp2EgZGlzdHJpYnXDrWRhPC9zdHJvbmc+PC9oMT4KPGJyPjxicj4KTm8gUmVwb3NpdMOzcmlvIEluc3RpdHVjaW9uYWwgVW5pZmVzcCwgcGFyYSByZXByb2R1emlyLCB0cmFkdXppciBlIGRpc3RyaWJ1aXIgc3VhIHN1Ym1pc3PDo28gZW0gdG9kbyBvIG11bmRvLCB2b2PDqiBkZXZlIGNvbmNvcmRhciBjb20gb3MgdGVybW9zIGEgc2VndWlyLgo8YnI+PGJyPgpQYXJhIGNvbmNlZGVyIGEgbGljZW7Dp2EgZGUgZGlzdHJpYnVpw6fDo28gcGFkcsOjbywgYXDDs3MgYSBsZWl0dXJhIGRvcyB0ZXJtb3MsIHNlbGVjaW9uZTogIkV1IGNvbmNlZG8gYSBMaWNlbsOnYSIgZSBjbGlxdWUgZW0gIkZpbmFsaXphciBzdWJtaXNzw6NvIi4KPGJyPjxicj4KVEVSTU9TIEUgQ09OREnDh8OVRVMgUEFSQSBPIExJQ0VOQ0lBTUVOVE8gRE8gQVJRVUlWQU1FTlRPLCBSRVBST0RVw4fDg08gRSBESVZVTEdBw4fDg08gUMOaQkxJQ0EgREUgQ09OVEXDmkRPIE5PIFJFUE9TSVTDk1JJTyBJTlNUSVRVQ0lPTkFMIFVOSUZFU1AuCjxicj48YnI+CjEuIEV1LCByZXNwb25zw6F2ZWwgcGVsbyB0cmFiYWxobyBlL291IHVzdcOhcmlvLWRlcG9zaXRhbnRlIG5vIFJlcG9zaXTDs3JpbyBJbnN0aXR1Y2lvbmFsIFVOSUZFU1AsIGFzc2VndXJvIG5vIHByZXNlbnRlIGF0byBxdWUgc291IHRpdHVsYXIgZG9zIGRpcmVpdG9zIGF1dG9yYWlzIHBhdHJpbW9uaWFpcyBlL291IGRpcmVpdG9zIGNvbmV4b3MgcmVmZXJlbnRlcyDDoCB0b3RhbGlkYWRlIGRhIE9icmEgb3JhIGRlcG9zaXRhZGEgZW0gZm9ybWF0byBkaWdpdGFsLCBiZW0gY29tbyBkZSBzZXVzIGNvbXBvbmVudGVzIG1lbm9yZXMsIGVtIHNlIHRyYXRhbmRvIGRlIG9icmEgY29sZXRpdmEsIGNvbmZvcm1lIG8gcHJlY2VpdHVhZG8gcGVsYSBMZWkgOS42MTAvOTggZS9vdSBMZWkgOS42MDkvOTguIE7Do28gc2VuZG8gZXN0ZSBvIGNhc28sIGFzc2VndXJvIHRlciBvYnRpZG8gZGlyZXRhbWVudGUgZG9zIGRldmlkb3MgdGl0dWxhcmVzIGF1dG9yaXphw6fDo28gcHLDqXZpYSBlIGV4cHJlc3NhIHBhcmEgbyBkZXDDs3NpdG8gZSBwYXJhIGEgZGl2dWxnYcOnw6NvIGRhIE9icmEsIGFicmFuZ2VuZG8gdG9kb3Mgb3MgZGlyZWl0b3MgYXV0b3JhaXMgZSBjb25leG9zIGFmZXRhZG9zIHBlbGEgYXNzaW5hdHVyYSBkbyBwcmVzZW50ZSB0ZXJtbyBkZSBsaWNlbmNpYW1lbnRvLCBkZSBtb2RvIGEgZWZldGl2YW1lbnRlIGlzZW50YXIgYSBVbml2ZXJzaWRhZGUgRmVkZXJhbCBkZSBTw6NvIFBhdWxvIChVTklGRVNQKSBlIHNldXMgZnVuY2lvbsOhcmlvcyBkZSBxdWFscXVlciByZXNwb25zYWJpbGlkYWRlIHBlbG8gdXNvIG7Do28tYXV0b3JpemFkbyBkbyBtYXRlcmlhbCBkZXBvc2l0YWRvLCBzZWphIGVtIHZpbmN1bGHDp8OjbyBhbyBSZXBvc2l0w7NyaW8gSW5zdGl0dWNpb25hbCBVTklGRVNQLCBzZWphIGVtIHZpbmN1bGHDp8OjbyBhIHF1YWlzcXVlciBzZXJ2acOnb3MgZGUgYnVzY2EgZSBkZSBkaXN0cmlidWnDp8OjbyBkZSBjb250ZcO6ZG8gcXVlIGZhw6dhbSB1c28gZGFzIGludGVyZmFjZXMgZSBlc3Bhw6dvIGRlIGFybWF6ZW5hbWVudG8gcHJvdmlkZW5jaWFkb3MgcGVsYSBVbml2ZXJzaWRhZGUgRmVkZXJhbCBkZSBTw6NvIFBhdWxvIChVTklGRVNQKSBwb3IgbWVpbyBkZSBzZXVzIHNpc3RlbWFzIGluZm9ybWF0aXphZG9zLiAKPGJyPjxicj4KMi4gQSBjb25jb3Jkw6JuY2lhIGNvbSBlc3RhIGxpY2Vuw6dhIHRlbSBjb21vIGNvbnNlcXXDqm5jaWEgYSB0cmFuc2ZlcsOqbmNpYSwgYSB0w610dWxvIG7Do28tZXhjbHVzaXZvIGUgbsOjby1vbmVyb3NvLCBpc2VudGEgZG8gcGFnYW1lbnRvIGRlIHJveWFsdGllcyBvdSBxdWFscXVlciBvdXRyYSBjb250cmFwcmVzdGHDp8OjbywgcGVjdW5pw6FyaWEgb3UgbsOjbywgw6AgVW5pdmVyc2lkYWRlIEZlZGVyYWwgZGUgU8OjbyBQYXVsbyAoVU5JRkVTUCkgZG9zIGRpcmVpdG9zIGRlIGFybWF6ZW5hciBkaWdpdGFsbWVudGUsIGRlIHJlcHJvZHV6aXIgZSBkZSBkaXN0cmlidWlyIG5hY2lvbmFsIGUgaW50ZXJuYWNpb25hbG1lbnRlIGEgT2JyYSwgaW5jbHVpbmRvLXNlIG8gc2V1IHJlc3Vtby9hYnN0cmFjdCwgcG9yIG1laW9zIGVsZXRyw7RuaWNvcyBhbyBww7pibGljbyBlbSBnZXJhbCwgZW0gcmVnaW1lIGRlIGFjZXNzbyBhYmVydG8uCjxicj48YnI+CjMuIEEgcHJlc2VudGUgbGljZW7Dp2EgdGFtYsOpbSBhYnJhbmdlLCBub3MgbWVzbW9zIHRlcm1vcyBlc3RhYmVsZWNpZG9zIG5vIGl0ZW0gMiwgc3VwcmEsIHF1YWxxdWVyIGRpcmVpdG8gZGUgY29tdW5pY2HDp8OjbyBhbyBww7pibGljbyBjYWLDrXZlbCBlbSByZWxhw6fDo28gw6AgT2JyYSBvcmEgZGVwb3NpdGFkYSwgaW5jbHVpbmRvLXNlIG9zIHVzb3MgcmVmZXJlbnRlcyDDoCByZXByZXNlbnRhw6fDo28gcMO6YmxpY2EgZS9vdSBleGVjdcOnw6NvIHDDumJsaWNhLCBiZW0gY29tbyBxdWFscXVlciBvdXRyYSBtb2RhbGlkYWRlIGRlIGNvbXVuaWNhw6fDo28gYW8gcMO6YmxpY28gcXVlIGV4aXN0YSBvdSB2ZW5oYSBhIGV4aXN0aXIsIG5vcyB0ZXJtb3MgZG8gYXJ0aWdvIDY4IGUgc2VndWludGVzIGRhIExlaSA5LjYxMC85OCwgbmEgZXh0ZW5zw6NvIHF1ZSBmb3IgYXBsaWPDoXZlbCBhb3Mgc2VydmnDp29zIHByZXN0YWRvcyBhbyBww7pibGljbyBwZWxhIFVuaXZlcnNpZGFkZSBGZWRlcmFsIGRlIFPDo28gUGF1bG8gKFVOSUZFU1ApLgo8YnI+PGJyPgo0LiBFc3RhIGxpY2Vuw6dhIGFicmFuZ2UsIGFpbmRhLCBub3MgbWVzbW9zIHRlcm1vcyBlc3RhYmVsZWNpZG9zIG5vIGl0ZW0gMiwgc3VwcmEsIHRvZG9zIG9zIGRpcmVpdG9zIGNvbmV4b3MgZGUgYXJ0aXN0YXMgaW50w6lycHJldGVzIG91IGV4ZWN1dGFudGVzLCBwcm9kdXRvcmVzIGZvbm9ncsOhZmljb3Mgb3UgZW1wcmVzYXMgZGUgcmFkaW9kaWZ1c8OjbyBxdWUgZXZlbnR1YWxtZW50ZSBzZWphbSBhcGxpY8OhdmVpcyBlbSByZWxhw6fDo28gw6Agb2JyYSBkZXBvc2l0YWRhLCBlbSBjb25mb3JtaWRhZGUgY29tIG8gcmVnaW1lIGZpeGFkbyBubyBUw610dWxvIFYgZGEgTGVpIDkuNjEwLzk4Lgo8YnI+PGJyPgo1LiBTZSBhIE9icmEgZGVwb3NpdGFkYSBmb2kgb3Ugw6kgb2JqZXRvIGRlIGZpbmFuY2lhbWVudG8gcG9yIGluc3RpdHVpw6fDtWVzIGRlIGZvbWVudG8gw6AgcGVzcXVpc2Egb3UgcXVhbHF1ZXIgb3V0cmEgc2VtZWxoYW50ZSwgdm9jw6ogb3UgbyB0aXR1bGFyIGFzc2VndXJhIHF1ZSBjdW1wcml1IHRvZGFzIGFzIG9icmlnYcOnw7VlcyBxdWUgbGhlIGZvcmFtIGltcG9zdGFzIHBlbGEgaW5zdGl0dWnDp8OjbyBmaW5hbmNpYWRvcmEgZW0gcmF6w6NvIGRvIGZpbmFuY2lhbWVudG8sIGUgcXVlIG7Do28gZXN0w6EgY29udHJhcmlhbmRvIHF1YWxxdWVyIGRpc3Bvc2nDp8OjbyBjb250cmF0dWFsIHJlZmVyZW50ZSDDoCBwdWJsaWNhw6fDo28gZG8gY29udGXDumRvIG9yYSBzdWJtZXRpZG8gYW8gUmVwb3NpdMOzcmlvIEluc3RpdHVjaW9uYWwgVU5JRkVTUC4KPGJyPjxicj4KNi4gQXV0b3JpemEgYSBVbml2ZXJzaWRhZGUgRmVkZXJhbCBkZSBTw6NvIFBhdWxvIGEgZGlzcG9uaWJpbGl6YXIgYSBvYnJhIG5vIFJlcG9zaXTDs3JpbyBJbnN0aXR1Y2lvbmFsIFVOSUZFU1AgZGUgZm9ybWEgZ3JhdHVpdGEsIGRlIGFjb3JkbyBjb20gYSBsaWNlbsOnYSBww7pibGljYSBDcmVhdGl2ZSBDb21tb25zOiBBdHJpYnVpw6fDo28tU2VtIERlcml2YcOnw7Vlcy1TZW0gRGVyaXZhZG9zIDQuMCBJbnRlcm5hY2lvbmFsIChDQyBCWS1OQy1ORCksIHBlcm1pdGluZG8gc2V1IGxpdnJlIGFjZXNzbywgdXNvIGUgY29tcGFydGlsaGFtZW50bywgZGVzZGUgcXVlIGNpdGFkYSBhIGZvbnRlLiBBIG9icmEgY29udGludWEgcHJvdGVnaWRhIHBvciBEaXJlaXRvcyBBdXRvcmFpcyBlL291IHBvciBvdXRyYXMgbGVpcyBhcGxpY8OhdmVpcy4gUXVhbHF1ZXIgdXNvIGRhIG9icmEsIHF1ZSBuw6NvIG8gYXV0b3JpemFkbyBzb2IgZXN0YSBsaWNlbsOnYSBvdSBwZWxhIGxlZ2lzbGHDp8OjbyBhdXRvcmFsLCDDqSBwcm9pYmlkby4gIAo8YnI+PGJyPgo3LiBBdGVzdGEgcXVlIGEgT2JyYSBzdWJtZXRpZGEgbsOjbyBjb250w6ltIHF1YWxxdWVyIGluZm9ybWHDp8OjbyBjb25maWRlbmNpYWwgc3VhIG91IGRlIHRlcmNlaXJvcy4KPGJyPjxicj4KOC4gQXRlc3RhIHF1ZSBvIHRyYWJhbGhvIHN1Ym1ldGlkbyDDqSBvcmlnaW5hbCBlIGZvaSBlbGFib3JhZG8gcmVzcGVpdGFuZG8gb3MgcHJpbmPDrXBpb3MgZGEgbW9yYWwgZSBkYSDDqXRpY2EgZSBuw6NvIHZpb2xvdSBxdWFscXVlciBkaXJlaXRvIGRlIHByb3ByaWVkYWRlIGludGVsZWN0dWFsLCBzb2IgcGVuYSBkZSByZXNwb25kZXIgY2l2aWwsIGNyaW1pbmFsLCDDqXRpY2EgZSBwcm9maXNzaW9uYWxtZW50ZSBwb3IgbWV1cyBhdG9zOwo8YnI+PGJyPgo5LiBBdGVzdGEgcXVlIGEgdmVyc8OjbyBkbyB0cmFiYWxobyBwcmVzZW50ZSBubyBhcnF1aXZvIHN1Ym1ldGlkbywgZW0gY2Fzb3MgZGUgdHJhYmFsaG9zIHF1ZSBleGlnaXJhbSBvcmllbnRhw6fDo28sIMOpIGEgdmVyc8OjbyBkZWZpbml0aXZhIHF1ZSBpbmNsdWkgYXMgYWx0ZXJhw6fDtWVzIGRlY29ycmVudGVzIGRhIGRlZmVzYSwgc29saWNpdGFkYXMgcGVsYSBiYW5jYSwgc2UgaG91dmUgYWxndW1hLCBvdSBzb2xpY2l0YWRhcyBwb3IgcGFydGUgZGUgb3JpZW50YcOnw6NvIGRvY2VudGUgcmVzcG9uc8OhdmVsLiBBdGVzdG8gYWluZGEgcXVlIG8gdHJhYmFsaG8gb2J0ZXZlIGF1dG9yaXphw6fDo28gZGUgcHVibGljYcOnw6NvIGUgYWNlc3NvIGRvIChhKSBvcmllbnRhZG9yIChhKSBkZSBhY29yZG8gY29tIGFzIGluZm9ybWHDp8O1ZXMgYXF1aSBwcmVzdGFkYXM7Cjxicj48YnI+CjEwLiBDb25jZWRlIMOgIFVuaXZlcnNpZGFkZSBGZWRlcmFsIGRlIFPDo28gUGF1bG8gKFVOSUZFU1ApIG8gZGlyZWl0byBuw6NvIGV4Y2x1c2l2byBkZSByZWFsaXphciBxdWFpc3F1ZXIgYWx0ZXJhw6fDtWVzIG5hIG3DrWRpYSBvdSBubyBmb3JtYXRvIGRvIGFycXVpdm8gcGFyYSBwcm9ww7NzaXRvcyBkZSBwcmVzZXJ2YcOnw6NvIGRpZ2l0YWwsIGRlIGFjZXNzaWJpbGlkYWRlIGUgZGUgbWVsaG9yIGlkZW50aWZpY2HDp8OjbyBkbyB0cmFiYWxobyBzdWJtZXRpZG8sIGRlc2RlIHF1ZSBuw6NvIHNlamEgYWx0ZXJhZG8gc2V1IGNvbnRlw7pkbyBpbnRlbGVjdHVhbC4KPGJyPjxicj4KQW8gY29uY2x1aXIgYXMgZXRhcGFzIGRvIHByb2Nlc3NvIGRlIHN1Ym1pc3PDo28gZGUgYXJxdWl2b3Mgbm8gUmVwb3NpdMOzcmlvIEluc3RpdHVjaW9uYWwgVU5JRkVTUCwgYXRlc3RvIHF1ZSBsaSBlIGNvbmNvcmRlaSBpbnRlZ3JhbG1lbnRlIGNvbSBvcyB0ZXJtb3MgYWNpbWEgZGVsaW1pdGFkb3MsIHNlbSBmYXplciBxdWFscXVlciByZXNlcnZhIGUgbm92YW1lbnRlIGNvbmZpcm1hbmRvIHF1ZSBjdW1wcm8gb3MgcmVxdWlzaXRvcyBpbmRpY2Fkb3Mgbm9zIGl0ZW5zIG1lbmNpb25hZG9zIGFudGVyaW9ybWVudGUuCjxicj48YnI+CkhhdmVuZG8gcXVhbHF1ZXIgZGlzY29yZMOibmNpYSBlbSByZWxhw6fDo28gYSBwcmVzZW50ZSBsaWNlbsOnYSBvdSBuw6NvIHNlIHZlcmlmaWNhbmRvIG8gZXhpZ2lkbyBub3MgaXRlbnMgYW50ZXJpb3Jlcywgdm9jw6ogZGV2ZSBpbnRlcnJvbXBlciBpbWVkaWF0YW1lbnRlIG8gcHJvY2Vzc28gZGUgc3VibWlzc8Ojby4gQSBjb250aW51aWRhZGUgZG8gcHJvY2Vzc28gZXF1aXZhbGUgw6AgY29uY29yZMOibmNpYSBlIMOgIGFzc2luYXR1cmEgZGVzdGUgZG9jdW1lbnRvLCBjb20gdG9kYXMgYXMgY29uc2VxdcOqbmNpYXMgbmVsZSBwcmV2aXN0YXMsIHN1amVpdGFuZG8tc2UgbyBzaWduYXTDoXJpbyBhIHNhbsOnw7VlcyBjaXZpcyBlIGNyaW1pbmFpcyBjYXNvIG7Do28gc2VqYSB0aXR1bGFyIGRvcyBkaXJlaXRvcyBhdXRvcmFpcyBwYXRyaW1vbmlhaXMgZS9vdSBjb25leG9zIGFwbGljw6F2ZWlzIMOgIE9icmEgZGVwb3NpdGFkYSBkdXJhbnRlIGVzdGUgcHJvY2Vzc28sIG91IGNhc28gbsOjbyB0ZW5oYSBvYnRpZG8gcHLDqXZpYSBlIGV4cHJlc3NhIGF1dG9yaXphw6fDo28gZG8gdGl0dWxhciBwYXJhIG8gZGVww7NzaXRvIGUgdG9kb3Mgb3MgdXNvcyBkYSBPYnJhIGVudm9sdmlkb3MuCjxicj48YnI+ClNlIHRpdmVyIHF1YWxxdWVyIGTDunZpZGEgcXVhbnRvIGFvcyB0ZXJtb3MgZGUgbGljZW5jaWFtZW50byBlIHF1YW50byBhbyBwcm9jZXNzbyBkZSBzdWJtaXNzw6NvLCBlbnRyZSBlbSBjb250YXRvIGNvbSBhIGJpYmxpb3RlY2EgZG8gc2V1IGNhbXB1cyAoY29uc3VsdGUgZW06IDxhIGhyZWY9Imh0dHBzOi8vYmlibGlvdGVjYXMudW5pZmVzcC5ici9iaWJsaW90ZWNhcy1kYS1yZWRlIj5odHRwczovL2JpYmxpb3RlY2FzLnVuaWZlc3AuYnIvYmlibGlvdGVjYXMtZGEtcmVkZTwvYT4pIAo8YnI+PGJyPgpTw6NvIFBhdWxvLCBNb24gSmFuIDE4IDIxOjQ5OjE4IEJSU1QgMjAyMS4K
dc.title.none.fl_str_mv Análise de desempenho, custo energético e acurácia de um módulo de um modelo numérico de previsão meteorológica usando precisão reduzida
dc.title.alternative.none.fl_str_mv Analysis of performance, energy and accuracy of a module of a numerical weather forecasting model using reduced precision
title Análise de desempenho, custo energético e acurácia de um módulo de um modelo numérico de previsão meteorológica usando precisão reduzida
spellingShingle Análise de desempenho, custo energético e acurácia de um módulo de um modelo numérico de previsão meteorológica usando precisão reduzida
Sudo, Marcelo Augusto [UNIFESP]
Computação aproximada
Precisão mista
Modelo numérico de previsão meteorológica
7. Energia limpa e acessível
9. Indústria, inovação e infraestrutura
13. Ação contra a mudança global do clima
title_short Análise de desempenho, custo energético e acurácia de um módulo de um modelo numérico de previsão meteorológica usando precisão reduzida
title_full Análise de desempenho, custo energético e acurácia de um módulo de um modelo numérico de previsão meteorológica usando precisão reduzida
title_fullStr Análise de desempenho, custo energético e acurácia de um módulo de um modelo numérico de previsão meteorológica usando precisão reduzida
title_full_unstemmed Análise de desempenho, custo energético e acurácia de um módulo de um modelo numérico de previsão meteorológica usando precisão reduzida
title_sort Análise de desempenho, custo energético e acurácia de um módulo de um modelo numérico de previsão meteorológica usando precisão reduzida
author Sudo, Marcelo Augusto [UNIFESP]
author_facet Sudo, Marcelo Augusto [UNIFESP]
author_role author
dc.contributor.advisorLattes.none.fl_str_mv http://lattes.cnpq.br/7606159905559544
dc.contributor.authorLattes.none.fl_str_mv http://lattes.cnpq.br/1750775781178709
dc.contributor.author.fl_str_mv Sudo, Marcelo Augusto [UNIFESP]
dc.contributor.advisor1.fl_str_mv Fazenda, Álvaro Luiz
contributor_str_mv Fazenda, Álvaro Luiz
dc.subject.por.fl_str_mv Computação aproximada
Precisão mista
Modelo numérico de previsão meteorológica
topic Computação aproximada
Precisão mista
Modelo numérico de previsão meteorológica
7. Energia limpa e acessível
9. Indústria, inovação e infraestrutura
13. Ação contra a mudança global do clima
dc.subject.ods.none.fl_str_mv 7. Energia limpa e acessível
9. Indústria, inovação e infraestrutura
13. Ação contra a mudança global do clima
description A Computação Aproximada é um paradigma utilizado por pesquisadores da área de Ciência da Computação que permite reduzir ou simplificar a precisão com que os dados são processados e armazenados, aceitando perdas de acurácia ou precisão dentro de limites toleráveis. A redução de precisão e precisão mista são as técnicas existentes mais estudadas de acordo com uma recente Revisão Sistemática da Literatura. Em complemento a esse fato, a NVIDIA lançou GPUs que possuem uma arquitetura denominada Tensor Core, com o objetivo de acelerar algumas classes de algoritmos, como a multiplicação de matrizes, e que utiliza os citados conceitos. Este estudo tem como objetivo demonstrar a aplicação da técnica de precisão reduzida em computação científica através de um modelo numérico chamado MPAS, mais especificamente em sua rotina de microfísica das nuvens chamada WSM6. Estudos prévios da técnica foram experimentados em algoritmos de multiplicação de matrizes e de estêncil, para então aplicar os conhecimentos adquiridos no modelo numérico de previsão meteorológica mencionado. A análise inicial relaciona os ganhos de desempenho e de energia obtidos em relação às possíveis perdas de acurácia. Os resultados desta fase da pesquisa mostraram que foi possível obter uma aceleração de 16.60× com um algoritmo otimizado de multiplicação de matrizes presente na função intrínseca matmul usando dados de ponto flutuante de 16 bits (FP16) com Tensor Core em GPU, comparado com uma versão ingênua do mesmo algoritmo, usando ponto flutuante de 64 bits (FP64) em CPU, além de um ganho energético de 57%. Para esta mesma aplicação, a perda de acurácia no resultado final foi de 10−26 a 10−1, aproximadamente. Para o algoritmo de estêncil, foi possível obter um ganho de 1.60× apenas reduzindo a precisão das variáveis de 64 bits para uma versão com ponto flutuante de 16 bits, e ganho energético de 40%, com perda de precisão de 0 a 10−9, para 300 iterações. Na etapa pricipal da pesquisa, os resultados mostraram que a eficiência energética (GFLOPS/W) aumenta à medida que a precisão diminui em intervalos de previsão entre 1 e 24 horas. Os testes de desempenho indicam uma aceleração de apenas 1.15× usando uma CPU tradicional (FP64 a FP32) com um único núcleo executando uma thread. No entanto, para GPUs, há uma significativa aceleração de 109.28× ao usar FP16 em GPU em comparação com FP64 na CPU. A precisão foi avaliada usando o Erro Quadrático Médio (EQM) e diferença máxima para variáveis específicas (qv, qc, qi, qr, qs, qg) intimamente relacionadas à microfísica. As diferenças mais significativas foram observados na variável qv, com EQM variando de 10−11 a 10−6 e diferenças máximas de 10−3 a 10−2. A média do erro dos mínimos quadrados para todas variáveis seguiu tendência semelhante, com valores em torno 10−5. A conclusão que se chega a partir desses estudos é que foi possível obter um ganho de desempenho com uma perda aceitável de acurácia, para o modelo numérico estudado, viabilizando a investigação da aplicação de técnicas em outros modelos numéricos, assim como em GPUs mais atualizadas com variação de compiladores.
publishDate 2025
dc.date.accessioned.fl_str_mv 2025-04-07T15:26:46Z
dc.date.available.fl_str_mv 2025-04-07T15:26:46Z
dc.date.issued.fl_str_mv 2025-02-20
dc.type.driver.fl_str_mv info:eu-repo/semantics/masterThesis
dc.type.status.fl_str_mv info:eu-repo/semantics/publishedVersion
format masterThesis
status_str publishedVersion
dc.identifier.citation.fl_str_mv SUDO, MARCELO AUGUSTO. Análise de desempenho, custo energético e acurácia de um módulo de um modelo numérico de Previsão Meteorológica usando Precisão Reduzida. 2025. 113 p. Dissertação (Mestrado em Ciências– Ciência da Computação)– Instituto de Ciência e Tecnologia, Universidade Federal de São Paulo, São José dos Campos–SP, 2025.
dc.identifier.uri.fl_str_mv https://hdl.handle.net/11600/73949
dc.identifier.dark.fl_str_mv ark:/48912/001300001ktzs
identifier_str_mv SUDO, MARCELO AUGUSTO. Análise de desempenho, custo energético e acurácia de um módulo de um modelo numérico de Previsão Meteorológica usando Precisão Reduzida. 2025. 113 p. Dissertação (Mestrado em Ciências– Ciência da Computação)– Instituto de Ciência e Tecnologia, Universidade Federal de São Paulo, São José dos Campos–SP, 2025.
ark:/48912/001300001ktzs
url https://hdl.handle.net/11600/73949
dc.language.iso.fl_str_mv por
language por
dc.rights.driver.fl_str_mv info:eu-repo/semantics/openAccess
eu_rights_str_mv openAccess
dc.format.none.fl_str_mv 113 f.
dc.coverage.spatial.none.fl_str_mv Online pelo Teams
dc.publisher.none.fl_str_mv Universidade Federal de São Paulo
publisher.none.fl_str_mv Universidade Federal de São Paulo
dc.source.none.fl_str_mv reponame:Repositório Institucional da UNIFESP
instname:Universidade Federal de São Paulo (UNIFESP)
instacron:UNIFESP
instname_str Universidade Federal de São Paulo (UNIFESP)
instacron_str UNIFESP
institution UNIFESP
reponame_str Repositório Institucional da UNIFESP
collection Repositório Institucional da UNIFESP
bitstream.url.fl_str_mv https://repositorio.unifesp.br/bitstreams/8ea625c7-19c5-4a1e-ae2e-204b31f9689b/download
https://repositorio.unifesp.br/bitstreams/a670d2c4-bacd-43a9-9f3a-c1929dad391f/download
https://repositorio.unifesp.br/bitstreams/e1b731f4-25a9-417c-94eb-421d620ce78d/download
https://repositorio.unifesp.br/bitstreams/ceb9bb6a-bf0e-4750-9d4e-806aa402342f/download
bitstream.checksum.fl_str_mv 3748df8afc50d2a5488fc6e54d7759ac
79881d6dea480587c66312d1102a8942
cb04bc3746720ea55fd425acbfdc84ef
1d6b3741d0e951d6d683e4d1eda09326
bitstream.checksumAlgorithm.fl_str_mv MD5
MD5
MD5
MD5
repository.name.fl_str_mv Repositório Institucional da UNIFESP - Universidade Federal de São Paulo (UNIFESP)
repository.mail.fl_str_mv biblioteca.csp@unifesp.br
_version_ 1863845865709371392