Análise de desempenho, custo energético e acurácia de um módulo de um modelo numérico de previsão meteorológica usando precisão reduzida
| Ano de defesa: | 2025 |
|---|---|
| Autor(a) principal: | |
| Orientador(a): | |
| Banca de defesa: | |
| Tipo de documento: | Dissertação |
| Tipo de acesso: | Acesso aberto |
| dARK ID: | ark:/48912/001300001ktzs |
| Idioma: | por |
| Instituição de defesa: |
Universidade Federal de São Paulo
|
| Programa de Pós-Graduação: |
Não Informado pela instituição
|
| Departamento: |
Não Informado pela instituição
|
| País: |
Não Informado pela instituição
|
| Palavras-chave em Português: | |
| Link de acesso: | https://hdl.handle.net/11600/73949 |
Resumo: | A Computação Aproximada é um paradigma utilizado por pesquisadores da área de Ciência da Computação que permite reduzir ou simplificar a precisão com que os dados são processados e armazenados, aceitando perdas de acurácia ou precisão dentro de limites toleráveis. A redução de precisão e precisão mista são as técnicas existentes mais estudadas de acordo com uma recente Revisão Sistemática da Literatura. Em complemento a esse fato, a NVIDIA lançou GPUs que possuem uma arquitetura denominada Tensor Core, com o objetivo de acelerar algumas classes de algoritmos, como a multiplicação de matrizes, e que utiliza os citados conceitos. Este estudo tem como objetivo demonstrar a aplicação da técnica de precisão reduzida em computação científica através de um modelo numérico chamado MPAS, mais especificamente em sua rotina de microfísica das nuvens chamada WSM6. Estudos prévios da técnica foram experimentados em algoritmos de multiplicação de matrizes e de estêncil, para então aplicar os conhecimentos adquiridos no modelo numérico de previsão meteorológica mencionado. A análise inicial relaciona os ganhos de desempenho e de energia obtidos em relação às possíveis perdas de acurácia. Os resultados desta fase da pesquisa mostraram que foi possível obter uma aceleração de 16.60× com um algoritmo otimizado de multiplicação de matrizes presente na função intrínseca matmul usando dados de ponto flutuante de 16 bits (FP16) com Tensor Core em GPU, comparado com uma versão ingênua do mesmo algoritmo, usando ponto flutuante de 64 bits (FP64) em CPU, além de um ganho energético de 57%. Para esta mesma aplicação, a perda de acurácia no resultado final foi de 10−26 a 10−1, aproximadamente. Para o algoritmo de estêncil, foi possível obter um ganho de 1.60× apenas reduzindo a precisão das variáveis de 64 bits para uma versão com ponto flutuante de 16 bits, e ganho energético de 40%, com perda de precisão de 0 a 10−9, para 300 iterações. Na etapa pricipal da pesquisa, os resultados mostraram que a eficiência energética (GFLOPS/W) aumenta à medida que a precisão diminui em intervalos de previsão entre 1 e 24 horas. Os testes de desempenho indicam uma aceleração de apenas 1.15× usando uma CPU tradicional (FP64 a FP32) com um único núcleo executando uma thread. No entanto, para GPUs, há uma significativa aceleração de 109.28× ao usar FP16 em GPU em comparação com FP64 na CPU. A precisão foi avaliada usando o Erro Quadrático Médio (EQM) e diferença máxima para variáveis específicas (qv, qc, qi, qr, qs, qg) intimamente relacionadas à microfísica. As diferenças mais significativas foram observados na variável qv, com EQM variando de 10−11 a 10−6 e diferenças máximas de 10−3 a 10−2. A média do erro dos mínimos quadrados para todas variáveis seguiu tendência semelhante, com valores em torno 10−5. A conclusão que se chega a partir desses estudos é que foi possível obter um ganho de desempenho com uma perda aceitável de acurácia, para o modelo numérico estudado, viabilizando a investigação da aplicação de técnicas em outros modelos numéricos, assim como em GPUs mais atualizadas com variação de compiladores. |
| id |
UFSP_4ed500223d8d93bc9f66bfbbd8eef9a6 |
|---|---|
| oai_identifier_str |
oai:repositorio.unifesp.br:11600/73949 |
| network_acronym_str |
UFSP |
| network_name_str |
Repositório Institucional da UNIFESP |
| repository_id_str |
|
| spelling |
http://lattes.cnpq.br/7606159905559544Sudo, Marcelo Augusto [UNIFESP]http://lattes.cnpq.br/1750775781178709Fazenda, Álvaro LuizOnline pelo Teams2025-04-07T15:26:46Z2025-04-07T15:26:46Z2025-02-20A Computação Aproximada é um paradigma utilizado por pesquisadores da área de Ciência da Computação que permite reduzir ou simplificar a precisão com que os dados são processados e armazenados, aceitando perdas de acurácia ou precisão dentro de limites toleráveis. A redução de precisão e precisão mista são as técnicas existentes mais estudadas de acordo com uma recente Revisão Sistemática da Literatura. Em complemento a esse fato, a NVIDIA lançou GPUs que possuem uma arquitetura denominada Tensor Core, com o objetivo de acelerar algumas classes de algoritmos, como a multiplicação de matrizes, e que utiliza os citados conceitos. Este estudo tem como objetivo demonstrar a aplicação da técnica de precisão reduzida em computação científica através de um modelo numérico chamado MPAS, mais especificamente em sua rotina de microfísica das nuvens chamada WSM6. Estudos prévios da técnica foram experimentados em algoritmos de multiplicação de matrizes e de estêncil, para então aplicar os conhecimentos adquiridos no modelo numérico de previsão meteorológica mencionado. A análise inicial relaciona os ganhos de desempenho e de energia obtidos em relação às possíveis perdas de acurácia. Os resultados desta fase da pesquisa mostraram que foi possível obter uma aceleração de 16.60× com um algoritmo otimizado de multiplicação de matrizes presente na função intrínseca matmul usando dados de ponto flutuante de 16 bits (FP16) com Tensor Core em GPU, comparado com uma versão ingênua do mesmo algoritmo, usando ponto flutuante de 64 bits (FP64) em CPU, além de um ganho energético de 57%. Para esta mesma aplicação, a perda de acurácia no resultado final foi de 10−26 a 10−1, aproximadamente. Para o algoritmo de estêncil, foi possível obter um ganho de 1.60× apenas reduzindo a precisão das variáveis de 64 bits para uma versão com ponto flutuante de 16 bits, e ganho energético de 40%, com perda de precisão de 0 a 10−9, para 300 iterações. Na etapa pricipal da pesquisa, os resultados mostraram que a eficiência energética (GFLOPS/W) aumenta à medida que a precisão diminui em intervalos de previsão entre 1 e 24 horas. Os testes de desempenho indicam uma aceleração de apenas 1.15× usando uma CPU tradicional (FP64 a FP32) com um único núcleo executando uma thread. No entanto, para GPUs, há uma significativa aceleração de 109.28× ao usar FP16 em GPU em comparação com FP64 na CPU. A precisão foi avaliada usando o Erro Quadrático Médio (EQM) e diferença máxima para variáveis específicas (qv, qc, qi, qr, qs, qg) intimamente relacionadas à microfísica. As diferenças mais significativas foram observados na variável qv, com EQM variando de 10−11 a 10−6 e diferenças máximas de 10−3 a 10−2. A média do erro dos mínimos quadrados para todas variáveis seguiu tendência semelhante, com valores em torno 10−5. A conclusão que se chega a partir desses estudos é que foi possível obter um ganho de desempenho com uma perda aceitável de acurácia, para o modelo numérico estudado, viabilizando a investigação da aplicação de técnicas em outros modelos numéricos, assim como em GPUs mais atualizadas com variação de compiladores.Approximate Computing is a paradigm used by researchers in the field of Computer Science that allows reducing or simplifying the precision with which data is processed and stored, accepting losses in accuracy or precision within tolerable limits. Reduced precision and mixed precision are the most studied existing techniques according to a recent Systematic Literature Review. In addition to this fact, NVIDIA launched GPUs that have an architecture called Tensor Core, with the aim of accelerating some classes of algorithms, such as matrix multiplication, and which uses the aforementioned concepts. This study aims to demonstrate the application of the reduced precision technique in scientific computing through a numerical model called MPAS, more specifically in its cloud microphysics routine called WSM6. Previous studies of the technique were experimented with matrix multiplication and stencil algorithms, to then apply the knowledge acquired in the aforementioned numerical meteorological forecast model. The initial analysis relates the performance gains obtained in relation to possible losses in accuracy. The results of this phase of the research showed that it was possible to obtain a speedup of 16.60× with an optimized matrix multiplication algorithm present in the matmul intrinsic function using 16-bit floating point data (FP16) with Tensor Core, compared to a naive version of the same algorithm, using 64-bit floating point (FP64). For this same application, the loss of accuracy in the final result was approximately 10−26 to 10−1. For the stencil algorithm, it was possible to obtain a gain of 160× just by reducing the precision of the 64-bit variables to a 16-bit floating point version, with a loss of precision from 0 to 10−9, for 300 iterations. In the main stage of the research, the results showed that energy efficiency (GFLOPS/W)increases as accuracy decreases in forecast intervals between 1 and 24 hours. Performance tests indicate a speedup of just 1.15× when using a traditional CPU (FP64 to FP32) with a single core running one thread. However, for GPUs, there is a significant 109.28× speedup when using FP16 compared to FP64 on the CPU. Accuracy was assessed using Mean Squared Error (MSE) and maximum difference for specific variables (qv, qc, qi, qr, qs, qg) closely related to microphysics. The most significant differences were observed in the qv variable, with MSE ranging from 10−11 to 10−6 and maximum differences from 10−3 to 10−2. The average MSE for all variables followed a similar trend, with values around 10−5. The conclusion reached from these studies is that it was possible to obtain a performance gain with an acceptable loss of accuracy, for the numerical model studied, making it possible to investigate the application of techniques in other numerical models, as well as in more up-to-date GPUs with compiler variation.Não recebi financiamentoalvaro.fazenda@unifesp.br113 f.SUDO, MARCELO AUGUSTO. Análise de desempenho, custo energético e acurácia de um módulo de um modelo numérico de Previsão Meteorológica usando Precisão Reduzida. 2025. 113 p. Dissertação (Mestrado em Ciências– Ciência da Computação)– Instituto de Ciência e Tecnologia, Universidade Federal de São Paulo, São José dos Campos–SP, 2025.https://hdl.handle.net/11600/73949ark:/48912/001300001ktzsporUniversidade Federal de São Pauloinfo:eu-repo/semantics/openAccess7. Energia limpa e acessível9. Indústria, inovação e infraestrutura13. Ação contra a mudança global do climaComputação aproximadaPrecisão mistaModelo numérico de previsão meteorológicaAnálise de desempenho, custo energético e acurácia de um módulo de um modelo numérico de previsão meteorológica usando precisão reduzidaAnalysis of performance, energy and accuracy of a module of a numerical weather forecasting model using reduced precisioninfo:eu-repo/semantics/masterThesisinfo:eu-repo/semantics/publishedVersionreponame:Repositório Institucional da UNIFESPinstname:Universidade Federal de São Paulo (UNIFESP)instacron:UNIFESPInstituto de Ciência e Tecnologia (ICT)Ciência da ComputaçãoCiência da ComputaçãoSistemas ComputacionaisORIGINALMonografia_MarceloSudo.pdfMonografia_MarceloSudo.pdfapplication/pdf16691758https://repositorio.unifesp.br/bitstreams/8ea625c7-19c5-4a1e-ae2e-204b31f9689b/download3748df8afc50d2a5488fc6e54d7759acMD51LICENSElicense.txtlicense.txttext/plain; charset=utf-86456https://repositorio.unifesp.br/bitstreams/a670d2c4-bacd-43a9-9f3a-c1929dad391f/download79881d6dea480587c66312d1102a8942MD52TEXTMonografia_MarceloSudo.pdf.txtMonografia_MarceloSudo.pdf.txtExtracted texttext/plain102952https://repositorio.unifesp.br/bitstreams/e1b731f4-25a9-417c-94eb-421d620ce78d/downloadcb04bc3746720ea55fd425acbfdc84efMD53THUMBNAILMonografia_MarceloSudo.pdf.jpgMonografia_MarceloSudo.pdf.jpgGenerated Thumbnailimage/jpeg3822https://repositorio.unifesp.br/bitstreams/ceb9bb6a-bf0e-4750-9d4e-806aa402342f/download1d6b3741d0e951d6d683e4d1eda09326MD5411600/739492025-04-08 04:04:11.718oai:repositorio.unifesp.br:11600/73949https://repositorio.unifesp.brRepositório InstitucionalPUBhttp://www.repositorio.unifesp.br/oai/requestbiblioteca.csp@unifesp.bropendoar:34652025-04-08T04:04:11Repositório Institucional da UNIFESP - Universidade Federal de São Paulo (UNIFESP)falsePGgxPjxzdHJvbmc+TGljZW7Dp2EgZGlzdHJpYnXDrWRhPC9zdHJvbmc+PC9oMT4KPGJyPjxicj4KTm8gUmVwb3NpdMOzcmlvIEluc3RpdHVjaW9uYWwgVW5pZmVzcCwgcGFyYSByZXByb2R1emlyLCB0cmFkdXppciBlIGRpc3RyaWJ1aXIgc3VhIHN1Ym1pc3PDo28gZW0gdG9kbyBvIG11bmRvLCB2b2PDqiBkZXZlIGNvbmNvcmRhciBjb20gb3MgdGVybW9zIGEgc2VndWlyLgo8YnI+PGJyPgpQYXJhIGNvbmNlZGVyIGEgbGljZW7Dp2EgZGUgZGlzdHJpYnVpw6fDo28gcGFkcsOjbywgYXDDs3MgYSBsZWl0dXJhIGRvcyB0ZXJtb3MsIHNlbGVjaW9uZTogIkV1IGNvbmNlZG8gYSBMaWNlbsOnYSIgZSBjbGlxdWUgZW0gIkZpbmFsaXphciBzdWJtaXNzw6NvIi4KPGJyPjxicj4KVEVSTU9TIEUgQ09OREnDh8OVRVMgUEFSQSBPIExJQ0VOQ0lBTUVOVE8gRE8gQVJRVUlWQU1FTlRPLCBSRVBST0RVw4fDg08gRSBESVZVTEdBw4fDg08gUMOaQkxJQ0EgREUgQ09OVEXDmkRPIE5PIFJFUE9TSVTDk1JJTyBJTlNUSVRVQ0lPTkFMIFVOSUZFU1AuCjxicj48YnI+CjEuIEV1LCByZXNwb25zw6F2ZWwgcGVsbyB0cmFiYWxobyBlL291IHVzdcOhcmlvLWRlcG9zaXRhbnRlIG5vIFJlcG9zaXTDs3JpbyBJbnN0aXR1Y2lvbmFsIFVOSUZFU1AsIGFzc2VndXJvIG5vIHByZXNlbnRlIGF0byBxdWUgc291IHRpdHVsYXIgZG9zIGRpcmVpdG9zIGF1dG9yYWlzIHBhdHJpbW9uaWFpcyBlL291IGRpcmVpdG9zIGNvbmV4b3MgcmVmZXJlbnRlcyDDoCB0b3RhbGlkYWRlIGRhIE9icmEgb3JhIGRlcG9zaXRhZGEgZW0gZm9ybWF0byBkaWdpdGFsLCBiZW0gY29tbyBkZSBzZXVzIGNvbXBvbmVudGVzIG1lbm9yZXMsIGVtIHNlIHRyYXRhbmRvIGRlIG9icmEgY29sZXRpdmEsIGNvbmZvcm1lIG8gcHJlY2VpdHVhZG8gcGVsYSBMZWkgOS42MTAvOTggZS9vdSBMZWkgOS42MDkvOTguIE7Do28gc2VuZG8gZXN0ZSBvIGNhc28sIGFzc2VndXJvIHRlciBvYnRpZG8gZGlyZXRhbWVudGUgZG9zIGRldmlkb3MgdGl0dWxhcmVzIGF1dG9yaXphw6fDo28gcHLDqXZpYSBlIGV4cHJlc3NhIHBhcmEgbyBkZXDDs3NpdG8gZSBwYXJhIGEgZGl2dWxnYcOnw6NvIGRhIE9icmEsIGFicmFuZ2VuZG8gdG9kb3Mgb3MgZGlyZWl0b3MgYXV0b3JhaXMgZSBjb25leG9zIGFmZXRhZG9zIHBlbGEgYXNzaW5hdHVyYSBkbyBwcmVzZW50ZSB0ZXJtbyBkZSBsaWNlbmNpYW1lbnRvLCBkZSBtb2RvIGEgZWZldGl2YW1lbnRlIGlzZW50YXIgYSBVbml2ZXJzaWRhZGUgRmVkZXJhbCBkZSBTw6NvIFBhdWxvIChVTklGRVNQKSBlIHNldXMgZnVuY2lvbsOhcmlvcyBkZSBxdWFscXVlciByZXNwb25zYWJpbGlkYWRlIHBlbG8gdXNvIG7Do28tYXV0b3JpemFkbyBkbyBtYXRlcmlhbCBkZXBvc2l0YWRvLCBzZWphIGVtIHZpbmN1bGHDp8OjbyBhbyBSZXBvc2l0w7NyaW8gSW5zdGl0dWNpb25hbCBVTklGRVNQLCBzZWphIGVtIHZpbmN1bGHDp8OjbyBhIHF1YWlzcXVlciBzZXJ2acOnb3MgZGUgYnVzY2EgZSBkZSBkaXN0cmlidWnDp8OjbyBkZSBjb250ZcO6ZG8gcXVlIGZhw6dhbSB1c28gZGFzIGludGVyZmFjZXMgZSBlc3Bhw6dvIGRlIGFybWF6ZW5hbWVudG8gcHJvdmlkZW5jaWFkb3MgcGVsYSBVbml2ZXJzaWRhZGUgRmVkZXJhbCBkZSBTw6NvIFBhdWxvIChVTklGRVNQKSBwb3IgbWVpbyBkZSBzZXVzIHNpc3RlbWFzIGluZm9ybWF0aXphZG9zLiAKPGJyPjxicj4KMi4gQSBjb25jb3Jkw6JuY2lhIGNvbSBlc3RhIGxpY2Vuw6dhIHRlbSBjb21vIGNvbnNlcXXDqm5jaWEgYSB0cmFuc2ZlcsOqbmNpYSwgYSB0w610dWxvIG7Do28tZXhjbHVzaXZvIGUgbsOjby1vbmVyb3NvLCBpc2VudGEgZG8gcGFnYW1lbnRvIGRlIHJveWFsdGllcyBvdSBxdWFscXVlciBvdXRyYSBjb250cmFwcmVzdGHDp8OjbywgcGVjdW5pw6FyaWEgb3UgbsOjbywgw6AgVW5pdmVyc2lkYWRlIEZlZGVyYWwgZGUgU8OjbyBQYXVsbyAoVU5JRkVTUCkgZG9zIGRpcmVpdG9zIGRlIGFybWF6ZW5hciBkaWdpdGFsbWVudGUsIGRlIHJlcHJvZHV6aXIgZSBkZSBkaXN0cmlidWlyIG5hY2lvbmFsIGUgaW50ZXJuYWNpb25hbG1lbnRlIGEgT2JyYSwgaW5jbHVpbmRvLXNlIG8gc2V1IHJlc3Vtby9hYnN0cmFjdCwgcG9yIG1laW9zIGVsZXRyw7RuaWNvcyBhbyBww7pibGljbyBlbSBnZXJhbCwgZW0gcmVnaW1lIGRlIGFjZXNzbyBhYmVydG8uCjxicj48YnI+CjMuIEEgcHJlc2VudGUgbGljZW7Dp2EgdGFtYsOpbSBhYnJhbmdlLCBub3MgbWVzbW9zIHRlcm1vcyBlc3RhYmVsZWNpZG9zIG5vIGl0ZW0gMiwgc3VwcmEsIHF1YWxxdWVyIGRpcmVpdG8gZGUgY29tdW5pY2HDp8OjbyBhbyBww7pibGljbyBjYWLDrXZlbCBlbSByZWxhw6fDo28gw6AgT2JyYSBvcmEgZGVwb3NpdGFkYSwgaW5jbHVpbmRvLXNlIG9zIHVzb3MgcmVmZXJlbnRlcyDDoCByZXByZXNlbnRhw6fDo28gcMO6YmxpY2EgZS9vdSBleGVjdcOnw6NvIHDDumJsaWNhLCBiZW0gY29tbyBxdWFscXVlciBvdXRyYSBtb2RhbGlkYWRlIGRlIGNvbXVuaWNhw6fDo28gYW8gcMO6YmxpY28gcXVlIGV4aXN0YSBvdSB2ZW5oYSBhIGV4aXN0aXIsIG5vcyB0ZXJtb3MgZG8gYXJ0aWdvIDY4IGUgc2VndWludGVzIGRhIExlaSA5LjYxMC85OCwgbmEgZXh0ZW5zw6NvIHF1ZSBmb3IgYXBsaWPDoXZlbCBhb3Mgc2VydmnDp29zIHByZXN0YWRvcyBhbyBww7pibGljbyBwZWxhIFVuaXZlcnNpZGFkZSBGZWRlcmFsIGRlIFPDo28gUGF1bG8gKFVOSUZFU1ApLgo8YnI+PGJyPgo0LiBFc3RhIGxpY2Vuw6dhIGFicmFuZ2UsIGFpbmRhLCBub3MgbWVzbW9zIHRlcm1vcyBlc3RhYmVsZWNpZG9zIG5vIGl0ZW0gMiwgc3VwcmEsIHRvZG9zIG9zIGRpcmVpdG9zIGNvbmV4b3MgZGUgYXJ0aXN0YXMgaW50w6lycHJldGVzIG91IGV4ZWN1dGFudGVzLCBwcm9kdXRvcmVzIGZvbm9ncsOhZmljb3Mgb3UgZW1wcmVzYXMgZGUgcmFkaW9kaWZ1c8OjbyBxdWUgZXZlbnR1YWxtZW50ZSBzZWphbSBhcGxpY8OhdmVpcyBlbSByZWxhw6fDo28gw6Agb2JyYSBkZXBvc2l0YWRhLCBlbSBjb25mb3JtaWRhZGUgY29tIG8gcmVnaW1lIGZpeGFkbyBubyBUw610dWxvIFYgZGEgTGVpIDkuNjEwLzk4Lgo8YnI+PGJyPgo1LiBTZSBhIE9icmEgZGVwb3NpdGFkYSBmb2kgb3Ugw6kgb2JqZXRvIGRlIGZpbmFuY2lhbWVudG8gcG9yIGluc3RpdHVpw6fDtWVzIGRlIGZvbWVudG8gw6AgcGVzcXVpc2Egb3UgcXVhbHF1ZXIgb3V0cmEgc2VtZWxoYW50ZSwgdm9jw6ogb3UgbyB0aXR1bGFyIGFzc2VndXJhIHF1ZSBjdW1wcml1IHRvZGFzIGFzIG9icmlnYcOnw7VlcyBxdWUgbGhlIGZvcmFtIGltcG9zdGFzIHBlbGEgaW5zdGl0dWnDp8OjbyBmaW5hbmNpYWRvcmEgZW0gcmF6w6NvIGRvIGZpbmFuY2lhbWVudG8sIGUgcXVlIG7Do28gZXN0w6EgY29udHJhcmlhbmRvIHF1YWxxdWVyIGRpc3Bvc2nDp8OjbyBjb250cmF0dWFsIHJlZmVyZW50ZSDDoCBwdWJsaWNhw6fDo28gZG8gY29udGXDumRvIG9yYSBzdWJtZXRpZG8gYW8gUmVwb3NpdMOzcmlvIEluc3RpdHVjaW9uYWwgVU5JRkVTUC4KPGJyPjxicj4KNi4gQXV0b3JpemEgYSBVbml2ZXJzaWRhZGUgRmVkZXJhbCBkZSBTw6NvIFBhdWxvIGEgZGlzcG9uaWJpbGl6YXIgYSBvYnJhIG5vIFJlcG9zaXTDs3JpbyBJbnN0aXR1Y2lvbmFsIFVOSUZFU1AgZGUgZm9ybWEgZ3JhdHVpdGEsIGRlIGFjb3JkbyBjb20gYSBsaWNlbsOnYSBww7pibGljYSBDcmVhdGl2ZSBDb21tb25zOiBBdHJpYnVpw6fDo28tU2VtIERlcml2YcOnw7Vlcy1TZW0gRGVyaXZhZG9zIDQuMCBJbnRlcm5hY2lvbmFsIChDQyBCWS1OQy1ORCksIHBlcm1pdGluZG8gc2V1IGxpdnJlIGFjZXNzbywgdXNvIGUgY29tcGFydGlsaGFtZW50bywgZGVzZGUgcXVlIGNpdGFkYSBhIGZvbnRlLiBBIG9icmEgY29udGludWEgcHJvdGVnaWRhIHBvciBEaXJlaXRvcyBBdXRvcmFpcyBlL291IHBvciBvdXRyYXMgbGVpcyBhcGxpY8OhdmVpcy4gUXVhbHF1ZXIgdXNvIGRhIG9icmEsIHF1ZSBuw6NvIG8gYXV0b3JpemFkbyBzb2IgZXN0YSBsaWNlbsOnYSBvdSBwZWxhIGxlZ2lzbGHDp8OjbyBhdXRvcmFsLCDDqSBwcm9pYmlkby4gIAo8YnI+PGJyPgo3LiBBdGVzdGEgcXVlIGEgT2JyYSBzdWJtZXRpZGEgbsOjbyBjb250w6ltIHF1YWxxdWVyIGluZm9ybWHDp8OjbyBjb25maWRlbmNpYWwgc3VhIG91IGRlIHRlcmNlaXJvcy4KPGJyPjxicj4KOC4gQXRlc3RhIHF1ZSBvIHRyYWJhbGhvIHN1Ym1ldGlkbyDDqSBvcmlnaW5hbCBlIGZvaSBlbGFib3JhZG8gcmVzcGVpdGFuZG8gb3MgcHJpbmPDrXBpb3MgZGEgbW9yYWwgZSBkYSDDqXRpY2EgZSBuw6NvIHZpb2xvdSBxdWFscXVlciBkaXJlaXRvIGRlIHByb3ByaWVkYWRlIGludGVsZWN0dWFsLCBzb2IgcGVuYSBkZSByZXNwb25kZXIgY2l2aWwsIGNyaW1pbmFsLCDDqXRpY2EgZSBwcm9maXNzaW9uYWxtZW50ZSBwb3IgbWV1cyBhdG9zOwo8YnI+PGJyPgo5LiBBdGVzdGEgcXVlIGEgdmVyc8OjbyBkbyB0cmFiYWxobyBwcmVzZW50ZSBubyBhcnF1aXZvIHN1Ym1ldGlkbywgZW0gY2Fzb3MgZGUgdHJhYmFsaG9zIHF1ZSBleGlnaXJhbSBvcmllbnRhw6fDo28sIMOpIGEgdmVyc8OjbyBkZWZpbml0aXZhIHF1ZSBpbmNsdWkgYXMgYWx0ZXJhw6fDtWVzIGRlY29ycmVudGVzIGRhIGRlZmVzYSwgc29saWNpdGFkYXMgcGVsYSBiYW5jYSwgc2UgaG91dmUgYWxndW1hLCBvdSBzb2xpY2l0YWRhcyBwb3IgcGFydGUgZGUgb3JpZW50YcOnw6NvIGRvY2VudGUgcmVzcG9uc8OhdmVsLiBBdGVzdG8gYWluZGEgcXVlIG8gdHJhYmFsaG8gb2J0ZXZlIGF1dG9yaXphw6fDo28gZGUgcHVibGljYcOnw6NvIGUgYWNlc3NvIGRvIChhKSBvcmllbnRhZG9yIChhKSBkZSBhY29yZG8gY29tIGFzIGluZm9ybWHDp8O1ZXMgYXF1aSBwcmVzdGFkYXM7Cjxicj48YnI+CjEwLiBDb25jZWRlIMOgIFVuaXZlcnNpZGFkZSBGZWRlcmFsIGRlIFPDo28gUGF1bG8gKFVOSUZFU1ApIG8gZGlyZWl0byBuw6NvIGV4Y2x1c2l2byBkZSByZWFsaXphciBxdWFpc3F1ZXIgYWx0ZXJhw6fDtWVzIG5hIG3DrWRpYSBvdSBubyBmb3JtYXRvIGRvIGFycXVpdm8gcGFyYSBwcm9ww7NzaXRvcyBkZSBwcmVzZXJ2YcOnw6NvIGRpZ2l0YWwsIGRlIGFjZXNzaWJpbGlkYWRlIGUgZGUgbWVsaG9yIGlkZW50aWZpY2HDp8OjbyBkbyB0cmFiYWxobyBzdWJtZXRpZG8sIGRlc2RlIHF1ZSBuw6NvIHNlamEgYWx0ZXJhZG8gc2V1IGNvbnRlw7pkbyBpbnRlbGVjdHVhbC4KPGJyPjxicj4KQW8gY29uY2x1aXIgYXMgZXRhcGFzIGRvIHByb2Nlc3NvIGRlIHN1Ym1pc3PDo28gZGUgYXJxdWl2b3Mgbm8gUmVwb3NpdMOzcmlvIEluc3RpdHVjaW9uYWwgVU5JRkVTUCwgYXRlc3RvIHF1ZSBsaSBlIGNvbmNvcmRlaSBpbnRlZ3JhbG1lbnRlIGNvbSBvcyB0ZXJtb3MgYWNpbWEgZGVsaW1pdGFkb3MsIHNlbSBmYXplciBxdWFscXVlciByZXNlcnZhIGUgbm92YW1lbnRlIGNvbmZpcm1hbmRvIHF1ZSBjdW1wcm8gb3MgcmVxdWlzaXRvcyBpbmRpY2Fkb3Mgbm9zIGl0ZW5zIG1lbmNpb25hZG9zIGFudGVyaW9ybWVudGUuCjxicj48YnI+CkhhdmVuZG8gcXVhbHF1ZXIgZGlzY29yZMOibmNpYSBlbSByZWxhw6fDo28gYSBwcmVzZW50ZSBsaWNlbsOnYSBvdSBuw6NvIHNlIHZlcmlmaWNhbmRvIG8gZXhpZ2lkbyBub3MgaXRlbnMgYW50ZXJpb3Jlcywgdm9jw6ogZGV2ZSBpbnRlcnJvbXBlciBpbWVkaWF0YW1lbnRlIG8gcHJvY2Vzc28gZGUgc3VibWlzc8Ojby4gQSBjb250aW51aWRhZGUgZG8gcHJvY2Vzc28gZXF1aXZhbGUgw6AgY29uY29yZMOibmNpYSBlIMOgIGFzc2luYXR1cmEgZGVzdGUgZG9jdW1lbnRvLCBjb20gdG9kYXMgYXMgY29uc2VxdcOqbmNpYXMgbmVsZSBwcmV2aXN0YXMsIHN1amVpdGFuZG8tc2UgbyBzaWduYXTDoXJpbyBhIHNhbsOnw7VlcyBjaXZpcyBlIGNyaW1pbmFpcyBjYXNvIG7Do28gc2VqYSB0aXR1bGFyIGRvcyBkaXJlaXRvcyBhdXRvcmFpcyBwYXRyaW1vbmlhaXMgZS9vdSBjb25leG9zIGFwbGljw6F2ZWlzIMOgIE9icmEgZGVwb3NpdGFkYSBkdXJhbnRlIGVzdGUgcHJvY2Vzc28sIG91IGNhc28gbsOjbyB0ZW5oYSBvYnRpZG8gcHLDqXZpYSBlIGV4cHJlc3NhIGF1dG9yaXphw6fDo28gZG8gdGl0dWxhciBwYXJhIG8gZGVww7NzaXRvIGUgdG9kb3Mgb3MgdXNvcyBkYSBPYnJhIGVudm9sdmlkb3MuCjxicj48YnI+ClNlIHRpdmVyIHF1YWxxdWVyIGTDunZpZGEgcXVhbnRvIGFvcyB0ZXJtb3MgZGUgbGljZW5jaWFtZW50byBlIHF1YW50byBhbyBwcm9jZXNzbyBkZSBzdWJtaXNzw6NvLCBlbnRyZSBlbSBjb250YXRvIGNvbSBhIGJpYmxpb3RlY2EgZG8gc2V1IGNhbXB1cyAoY29uc3VsdGUgZW06IDxhIGhyZWY9Imh0dHBzOi8vYmlibGlvdGVjYXMudW5pZmVzcC5ici9iaWJsaW90ZWNhcy1kYS1yZWRlIj5odHRwczovL2JpYmxpb3RlY2FzLnVuaWZlc3AuYnIvYmlibGlvdGVjYXMtZGEtcmVkZTwvYT4pIAo8YnI+PGJyPgpTw6NvIFBhdWxvLCBNb24gSmFuIDE4IDIxOjQ5OjE4IEJSU1QgMjAyMS4K |
| dc.title.none.fl_str_mv |
Análise de desempenho, custo energético e acurácia de um módulo de um modelo numérico de previsão meteorológica usando precisão reduzida |
| dc.title.alternative.none.fl_str_mv |
Analysis of performance, energy and accuracy of a module of a numerical weather forecasting model using reduced precision |
| title |
Análise de desempenho, custo energético e acurácia de um módulo de um modelo numérico de previsão meteorológica usando precisão reduzida |
| spellingShingle |
Análise de desempenho, custo energético e acurácia de um módulo de um modelo numérico de previsão meteorológica usando precisão reduzida Sudo, Marcelo Augusto [UNIFESP] Computação aproximada Precisão mista Modelo numérico de previsão meteorológica 7. Energia limpa e acessível 9. Indústria, inovação e infraestrutura 13. Ação contra a mudança global do clima |
| title_short |
Análise de desempenho, custo energético e acurácia de um módulo de um modelo numérico de previsão meteorológica usando precisão reduzida |
| title_full |
Análise de desempenho, custo energético e acurácia de um módulo de um modelo numérico de previsão meteorológica usando precisão reduzida |
| title_fullStr |
Análise de desempenho, custo energético e acurácia de um módulo de um modelo numérico de previsão meteorológica usando precisão reduzida |
| title_full_unstemmed |
Análise de desempenho, custo energético e acurácia de um módulo de um modelo numérico de previsão meteorológica usando precisão reduzida |
| title_sort |
Análise de desempenho, custo energético e acurácia de um módulo de um modelo numérico de previsão meteorológica usando precisão reduzida |
| author |
Sudo, Marcelo Augusto [UNIFESP] |
| author_facet |
Sudo, Marcelo Augusto [UNIFESP] |
| author_role |
author |
| dc.contributor.advisorLattes.none.fl_str_mv |
http://lattes.cnpq.br/7606159905559544 |
| dc.contributor.authorLattes.none.fl_str_mv |
http://lattes.cnpq.br/1750775781178709 |
| dc.contributor.author.fl_str_mv |
Sudo, Marcelo Augusto [UNIFESP] |
| dc.contributor.advisor1.fl_str_mv |
Fazenda, Álvaro Luiz |
| contributor_str_mv |
Fazenda, Álvaro Luiz |
| dc.subject.por.fl_str_mv |
Computação aproximada Precisão mista Modelo numérico de previsão meteorológica |
| topic |
Computação aproximada Precisão mista Modelo numérico de previsão meteorológica 7. Energia limpa e acessível 9. Indústria, inovação e infraestrutura 13. Ação contra a mudança global do clima |
| dc.subject.ods.none.fl_str_mv |
7. Energia limpa e acessível 9. Indústria, inovação e infraestrutura 13. Ação contra a mudança global do clima |
| description |
A Computação Aproximada é um paradigma utilizado por pesquisadores da área de Ciência da Computação que permite reduzir ou simplificar a precisão com que os dados são processados e armazenados, aceitando perdas de acurácia ou precisão dentro de limites toleráveis. A redução de precisão e precisão mista são as técnicas existentes mais estudadas de acordo com uma recente Revisão Sistemática da Literatura. Em complemento a esse fato, a NVIDIA lançou GPUs que possuem uma arquitetura denominada Tensor Core, com o objetivo de acelerar algumas classes de algoritmos, como a multiplicação de matrizes, e que utiliza os citados conceitos. Este estudo tem como objetivo demonstrar a aplicação da técnica de precisão reduzida em computação científica através de um modelo numérico chamado MPAS, mais especificamente em sua rotina de microfísica das nuvens chamada WSM6. Estudos prévios da técnica foram experimentados em algoritmos de multiplicação de matrizes e de estêncil, para então aplicar os conhecimentos adquiridos no modelo numérico de previsão meteorológica mencionado. A análise inicial relaciona os ganhos de desempenho e de energia obtidos em relação às possíveis perdas de acurácia. Os resultados desta fase da pesquisa mostraram que foi possível obter uma aceleração de 16.60× com um algoritmo otimizado de multiplicação de matrizes presente na função intrínseca matmul usando dados de ponto flutuante de 16 bits (FP16) com Tensor Core em GPU, comparado com uma versão ingênua do mesmo algoritmo, usando ponto flutuante de 64 bits (FP64) em CPU, além de um ganho energético de 57%. Para esta mesma aplicação, a perda de acurácia no resultado final foi de 10−26 a 10−1, aproximadamente. Para o algoritmo de estêncil, foi possível obter um ganho de 1.60× apenas reduzindo a precisão das variáveis de 64 bits para uma versão com ponto flutuante de 16 bits, e ganho energético de 40%, com perda de precisão de 0 a 10−9, para 300 iterações. Na etapa pricipal da pesquisa, os resultados mostraram que a eficiência energética (GFLOPS/W) aumenta à medida que a precisão diminui em intervalos de previsão entre 1 e 24 horas. Os testes de desempenho indicam uma aceleração de apenas 1.15× usando uma CPU tradicional (FP64 a FP32) com um único núcleo executando uma thread. No entanto, para GPUs, há uma significativa aceleração de 109.28× ao usar FP16 em GPU em comparação com FP64 na CPU. A precisão foi avaliada usando o Erro Quadrático Médio (EQM) e diferença máxima para variáveis específicas (qv, qc, qi, qr, qs, qg) intimamente relacionadas à microfísica. As diferenças mais significativas foram observados na variável qv, com EQM variando de 10−11 a 10−6 e diferenças máximas de 10−3 a 10−2. A média do erro dos mínimos quadrados para todas variáveis seguiu tendência semelhante, com valores em torno 10−5. A conclusão que se chega a partir desses estudos é que foi possível obter um ganho de desempenho com uma perda aceitável de acurácia, para o modelo numérico estudado, viabilizando a investigação da aplicação de técnicas em outros modelos numéricos, assim como em GPUs mais atualizadas com variação de compiladores. |
| publishDate |
2025 |
| dc.date.accessioned.fl_str_mv |
2025-04-07T15:26:46Z |
| dc.date.available.fl_str_mv |
2025-04-07T15:26:46Z |
| dc.date.issued.fl_str_mv |
2025-02-20 |
| dc.type.driver.fl_str_mv |
info:eu-repo/semantics/masterThesis |
| dc.type.status.fl_str_mv |
info:eu-repo/semantics/publishedVersion |
| format |
masterThesis |
| status_str |
publishedVersion |
| dc.identifier.citation.fl_str_mv |
SUDO, MARCELO AUGUSTO. Análise de desempenho, custo energético e acurácia de um módulo de um modelo numérico de Previsão Meteorológica usando Precisão Reduzida. 2025. 113 p. Dissertação (Mestrado em Ciências– Ciência da Computação)– Instituto de Ciência e Tecnologia, Universidade Federal de São Paulo, São José dos Campos–SP, 2025. |
| dc.identifier.uri.fl_str_mv |
https://hdl.handle.net/11600/73949 |
| dc.identifier.dark.fl_str_mv |
ark:/48912/001300001ktzs |
| identifier_str_mv |
SUDO, MARCELO AUGUSTO. Análise de desempenho, custo energético e acurácia de um módulo de um modelo numérico de Previsão Meteorológica usando Precisão Reduzida. 2025. 113 p. Dissertação (Mestrado em Ciências– Ciência da Computação)– Instituto de Ciência e Tecnologia, Universidade Federal de São Paulo, São José dos Campos–SP, 2025. ark:/48912/001300001ktzs |
| url |
https://hdl.handle.net/11600/73949 |
| dc.language.iso.fl_str_mv |
por |
| language |
por |
| dc.rights.driver.fl_str_mv |
info:eu-repo/semantics/openAccess |
| eu_rights_str_mv |
openAccess |
| dc.format.none.fl_str_mv |
113 f. |
| dc.coverage.spatial.none.fl_str_mv |
Online pelo Teams |
| dc.publisher.none.fl_str_mv |
Universidade Federal de São Paulo |
| publisher.none.fl_str_mv |
Universidade Federal de São Paulo |
| dc.source.none.fl_str_mv |
reponame:Repositório Institucional da UNIFESP instname:Universidade Federal de São Paulo (UNIFESP) instacron:UNIFESP |
| instname_str |
Universidade Federal de São Paulo (UNIFESP) |
| instacron_str |
UNIFESP |
| institution |
UNIFESP |
| reponame_str |
Repositório Institucional da UNIFESP |
| collection |
Repositório Institucional da UNIFESP |
| bitstream.url.fl_str_mv |
https://repositorio.unifesp.br/bitstreams/8ea625c7-19c5-4a1e-ae2e-204b31f9689b/download https://repositorio.unifesp.br/bitstreams/a670d2c4-bacd-43a9-9f3a-c1929dad391f/download https://repositorio.unifesp.br/bitstreams/e1b731f4-25a9-417c-94eb-421d620ce78d/download https://repositorio.unifesp.br/bitstreams/ceb9bb6a-bf0e-4750-9d4e-806aa402342f/download |
| bitstream.checksum.fl_str_mv |
3748df8afc50d2a5488fc6e54d7759ac 79881d6dea480587c66312d1102a8942 cb04bc3746720ea55fd425acbfdc84ef 1d6b3741d0e951d6d683e4d1eda09326 |
| bitstream.checksumAlgorithm.fl_str_mv |
MD5 MD5 MD5 MD5 |
| repository.name.fl_str_mv |
Repositório Institucional da UNIFESP - Universidade Federal de São Paulo (UNIFESP) |
| repository.mail.fl_str_mv |
biblioteca.csp@unifesp.br |
| _version_ |
1863845865709371392 |