Exportação concluída — 

Assessing performance and cost efficiency for parallel workloads on public clouds

Detalhes bibliográficos
Ano de defesa: 2025
Autor(a) principal: Maas, William Bozzetti
Orientador(a): Lorenzon, Arthur Francisco
Banca de defesa: Não Informado pela instituição
Tipo de documento: Dissertação
Tipo de acesso: Acesso aberto
Idioma: por
Instituição de defesa: Não Informado pela instituição
Programa de Pós-Graduação: Não Informado pela instituição
Departamento: Não Informado pela instituição
País: Não Informado pela instituição
Palavras-chave em Português:
Link de acesso: http://hdl.handle.net/10183/293169
Resumo: Acomputação em nuvem surgiu como uma alternativa escalável e economicamente viá vel para a execução de cargas de trabalho de computação de alto desempenho (HPC), tradicionalmente realizadas em supercomputadores ou clusters dedicados locais. As pla taformas em nuvem oferecem flexibilidade, permitindo que os usuários aloquem recursos dinamicamente conforme suas demandas computacionais, evitando investimentos iniciais elevados e custos de manutenção de infraestrutura a longo prazo. No entanto, identificar os recursos ideais em nuvem para cargas de trabalho HPC (Computação de Alto Desem penho) continua sendo um desafio complexo. Essa dificuldade decorre principalmente das estratégias de precificação heterogêneas adotadas pelos provedores de nuvem, que in cluem diferentes esquemas de cobrança baseados em instâncias reservadas, sob demanda ou spot, cada uma com diferentes compensações entre custo e desempenho. Além disso, os provedores oferecem uma ampla gama de configurações de recursos — abrangendo instâncias de uso geral, otimizadas para computação, otimizadas para memória e acelera das por GPU — oque torna o processo de seleção ainda mais complexo. Por fim, cargas de trabalho HPC apresentam comportamentos computacionais diversos, como diferentes graus de paralelismo, padrões de acesso à memória variados e intensidades computacio nais distintas. Esta dissertação avalia sistematicamente os trade-offs entre desempenho e custo para aplicações paralelas executadas nas principais plataformas de nuvem pública —AmazonWebServices (AWS), Google Cloud Platform (GCP) e Microsoft Azure. Por meio de um estudo extensivo de benchmarking com 104 instâncias distintas de nuvem e 18 cargas de trabalho paralelas representativas, analisamos variações de desempenho decorrentes da escalabilidade de threads, dos padrões de acesso à memória e das diferen ças de intensidade computacional. Os resultados indicam uma variabilidade substancial de desempenho entre as instâncias de nuvem, confirmando que nenhum tipo de instância otimiza consistentemente custo e desempenho para todas as cargas de trabalho. Em vez disso, instâncias otimizadas para computação e HPC oferecem desempenho superior para aplicações altamente paralelas e computacionalmente intensivas. Em contraste, instâncias de uso geral apresentam um desempenho mais custo-efetivo para cargas de trabalho com uso intensivo de memória ou com paralelismo moderado.
id URGS_c5d254da52ab97faf8d5a32151629288
oai_identifier_str oai:www.lume.ufrgs.br:10183/293169
network_acronym_str URGS
network_name_str Biblioteca Digital de Teses e Dissertações da UFRGS
repository_id_str
spelling Maas, William BozzettiLorenzon, Arthur Francisco2025-06-25T07:57:27Z2025http://hdl.handle.net/10183/293169001258539Acomputação em nuvem surgiu como uma alternativa escalável e economicamente viá vel para a execução de cargas de trabalho de computação de alto desempenho (HPC), tradicionalmente realizadas em supercomputadores ou clusters dedicados locais. As pla taformas em nuvem oferecem flexibilidade, permitindo que os usuários aloquem recursos dinamicamente conforme suas demandas computacionais, evitando investimentos iniciais elevados e custos de manutenção de infraestrutura a longo prazo. No entanto, identificar os recursos ideais em nuvem para cargas de trabalho HPC (Computação de Alto Desem penho) continua sendo um desafio complexo. Essa dificuldade decorre principalmente das estratégias de precificação heterogêneas adotadas pelos provedores de nuvem, que in cluem diferentes esquemas de cobrança baseados em instâncias reservadas, sob demanda ou spot, cada uma com diferentes compensações entre custo e desempenho. Além disso, os provedores oferecem uma ampla gama de configurações de recursos — abrangendo instâncias de uso geral, otimizadas para computação, otimizadas para memória e acelera das por GPU — oque torna o processo de seleção ainda mais complexo. Por fim, cargas de trabalho HPC apresentam comportamentos computacionais diversos, como diferentes graus de paralelismo, padrões de acesso à memória variados e intensidades computacio nais distintas. Esta dissertação avalia sistematicamente os trade-offs entre desempenho e custo para aplicações paralelas executadas nas principais plataformas de nuvem pública —AmazonWebServices (AWS), Google Cloud Platform (GCP) e Microsoft Azure. Por meio de um estudo extensivo de benchmarking com 104 instâncias distintas de nuvem e 18 cargas de trabalho paralelas representativas, analisamos variações de desempenho decorrentes da escalabilidade de threads, dos padrões de acesso à memória e das diferen ças de intensidade computacional. Os resultados indicam uma variabilidade substancial de desempenho entre as instâncias de nuvem, confirmando que nenhum tipo de instância otimiza consistentemente custo e desempenho para todas as cargas de trabalho. Em vez disso, instâncias otimizadas para computação e HPC oferecem desempenho superior para aplicações altamente paralelas e computacionalmente intensivas. Em contraste, instâncias de uso geral apresentam um desempenho mais custo-efetivo para cargas de trabalho com uso intensivo de memória ou com paralelismo moderado.Cloud computing has emerged as a scalable and economically viable alternative for ex ecuting high-performance computing (HPC) workloads, traditionally deployed on dedi cated on-premises supercomputers or clusters. Cloud platforms offer flexibility, allow ing users to allocate resources dynamically according to their computational demands, avoiding large upfront investments and long-term infrastructure maintenance costs. How ever, identifying optimal cloud resources for HPC workloads remains challenging and non-trivial. This complexity arises primarily from the heterogeneous pricing strategies adopted by cloud providers, which include varied billing schemes based on reserved, on demand, or spot instances, each with distinct cost-performance trade-offs. Additionally, providers offer a broad spectrum of resource configurations—spanning general-purpose, compute-optimized, memory-optimized, and GPU-accelerated instances—further com plicating the selection process. Finally, HPC workloads exhibit diverse computational behaviors, such as varying degrees of parallelism, different memory access patterns, and distinct computational intensities. This dissertation systematically evaluates the trade-offs between performance and cost for parallel applications executed on major public cloud platforms—Amazon Web Services (AWS), Google Cloud Platform (GCP), and Microsoft Azure. Through an extensive benchmarking study with 104 distinct cloud instances and 18 representative parallel workloads, we analyze performance variations arising from thread scalability, memory access patterns, and computational intensity differences. Re sults indicate substantial performance variability across cloud instances, confirming that no single instance type consistently optimizes both cost and performance for all work loads. Instead, compute- and HPC-optimized instances offer superior performance for highly parallel and computationally intensive applications. In contrast, general-purpose instances yield more cost-effective performance for memory-bound or moderately paral lel workloadsapplication/pdfporProcessamento paraleloComputação em nuvemComputação de alto desempenhoParalelismoAssessing performance and cost efficiency for parallel workloads on public cloudsAvaliando o desempenho e a eficiência de custo para cargas de trabalho paralelas em nuvens públicas info:eu-repo/semantics/publishedVersioninfo:eu-repo/semantics/masterThesisUniversidade Federal do Rio Grande do SulInstituto de InformáticaPrograma de Pós-Graduação em ComputaçãoPorto Alegre, BR-RS2025mestradoinfo:eu-repo/semantics/openAccessreponame:Biblioteca Digital de Teses e Dissertações da UFRGSinstname:Universidade Federal do Rio Grande do Sul (UFRGS)instacron:UFRGSTEXT001258539.pdf.txt001258539.pdf.txtExtracted Texttext/plain123832http://www.lume.ufrgs.br/bitstream/10183/293169/2/001258539.pdf.txt992ce4508270c958fcaee5eae77a727eMD52ORIGINAL001258539.pdfTexto completo (inglês)application/pdf2409167http://www.lume.ufrgs.br/bitstream/10183/293169/1/001258539.pdf8414afa1d64e648134f6ed26bc47802bMD5110183/2931692025-06-26 07:58:59.635528oai:www.lume.ufrgs.br:10183/293169Biblioteca Digital de Teses e Dissertaçõeshttps://lume.ufrgs.br/handle/10183/2PUBhttps://lume.ufrgs.br/oai/requestlume@ufrgs.br || lume@ufrgs.bropendoar:18532025-06-26T10:58:59Biblioteca Digital de Teses e Dissertações da UFRGS - Universidade Federal do Rio Grande do Sul (UFRGS)false
dc.title.pt_BR.fl_str_mv Assessing performance and cost efficiency for parallel workloads on public clouds
dc.title.alternative.pt.fl_str_mv Avaliando o desempenho e a eficiência de custo para cargas de trabalho paralelas em nuvens públicas
title Assessing performance and cost efficiency for parallel workloads on public clouds
spellingShingle Assessing performance and cost efficiency for parallel workloads on public clouds
Maas, William Bozzetti
Processamento paralelo
Computação em nuvem
Computação de alto desempenho
Paralelismo
title_short Assessing performance and cost efficiency for parallel workloads on public clouds
title_full Assessing performance and cost efficiency for parallel workloads on public clouds
title_fullStr Assessing performance and cost efficiency for parallel workloads on public clouds
title_full_unstemmed Assessing performance and cost efficiency for parallel workloads on public clouds
title_sort Assessing performance and cost efficiency for parallel workloads on public clouds
author Maas, William Bozzetti
author_facet Maas, William Bozzetti
author_role author
dc.contributor.author.fl_str_mv Maas, William Bozzetti
dc.contributor.advisor1.fl_str_mv Lorenzon, Arthur Francisco
contributor_str_mv Lorenzon, Arthur Francisco
dc.subject.por.fl_str_mv Processamento paralelo
Computação em nuvem
Computação de alto desempenho
Paralelismo
topic Processamento paralelo
Computação em nuvem
Computação de alto desempenho
Paralelismo
description Acomputação em nuvem surgiu como uma alternativa escalável e economicamente viá vel para a execução de cargas de trabalho de computação de alto desempenho (HPC), tradicionalmente realizadas em supercomputadores ou clusters dedicados locais. As pla taformas em nuvem oferecem flexibilidade, permitindo que os usuários aloquem recursos dinamicamente conforme suas demandas computacionais, evitando investimentos iniciais elevados e custos de manutenção de infraestrutura a longo prazo. No entanto, identificar os recursos ideais em nuvem para cargas de trabalho HPC (Computação de Alto Desem penho) continua sendo um desafio complexo. Essa dificuldade decorre principalmente das estratégias de precificação heterogêneas adotadas pelos provedores de nuvem, que in cluem diferentes esquemas de cobrança baseados em instâncias reservadas, sob demanda ou spot, cada uma com diferentes compensações entre custo e desempenho. Além disso, os provedores oferecem uma ampla gama de configurações de recursos — abrangendo instâncias de uso geral, otimizadas para computação, otimizadas para memória e acelera das por GPU — oque torna o processo de seleção ainda mais complexo. Por fim, cargas de trabalho HPC apresentam comportamentos computacionais diversos, como diferentes graus de paralelismo, padrões de acesso à memória variados e intensidades computacio nais distintas. Esta dissertação avalia sistematicamente os trade-offs entre desempenho e custo para aplicações paralelas executadas nas principais plataformas de nuvem pública —AmazonWebServices (AWS), Google Cloud Platform (GCP) e Microsoft Azure. Por meio de um estudo extensivo de benchmarking com 104 instâncias distintas de nuvem e 18 cargas de trabalho paralelas representativas, analisamos variações de desempenho decorrentes da escalabilidade de threads, dos padrões de acesso à memória e das diferen ças de intensidade computacional. Os resultados indicam uma variabilidade substancial de desempenho entre as instâncias de nuvem, confirmando que nenhum tipo de instância otimiza consistentemente custo e desempenho para todas as cargas de trabalho. Em vez disso, instâncias otimizadas para computação e HPC oferecem desempenho superior para aplicações altamente paralelas e computacionalmente intensivas. Em contraste, instâncias de uso geral apresentam um desempenho mais custo-efetivo para cargas de trabalho com uso intensivo de memória ou com paralelismo moderado.
publishDate 2025
dc.date.accessioned.fl_str_mv 2025-06-25T07:57:27Z
dc.date.issued.fl_str_mv 2025
dc.type.status.fl_str_mv info:eu-repo/semantics/publishedVersion
dc.type.driver.fl_str_mv info:eu-repo/semantics/masterThesis
format masterThesis
status_str publishedVersion
dc.identifier.uri.fl_str_mv http://hdl.handle.net/10183/293169
dc.identifier.nrb.pt_BR.fl_str_mv 001258539
url http://hdl.handle.net/10183/293169
identifier_str_mv 001258539
dc.language.iso.fl_str_mv por
language por
dc.rights.driver.fl_str_mv info:eu-repo/semantics/openAccess
eu_rights_str_mv openAccess
dc.format.none.fl_str_mv application/pdf
dc.source.none.fl_str_mv reponame:Biblioteca Digital de Teses e Dissertações da UFRGS
instname:Universidade Federal do Rio Grande do Sul (UFRGS)
instacron:UFRGS
instname_str Universidade Federal do Rio Grande do Sul (UFRGS)
instacron_str UFRGS
institution UFRGS
reponame_str Biblioteca Digital de Teses e Dissertações da UFRGS
collection Biblioteca Digital de Teses e Dissertações da UFRGS
bitstream.url.fl_str_mv http://www.lume.ufrgs.br/bitstream/10183/293169/2/001258539.pdf.txt
http://www.lume.ufrgs.br/bitstream/10183/293169/1/001258539.pdf
bitstream.checksum.fl_str_mv 992ce4508270c958fcaee5eae77a727e
8414afa1d64e648134f6ed26bc47802b
bitstream.checksumAlgorithm.fl_str_mv MD5
MD5
repository.name.fl_str_mv Biblioteca Digital de Teses e Dissertações da UFRGS - Universidade Federal do Rio Grande do Sul (UFRGS)
repository.mail.fl_str_mv lume@ufrgs.br || lume@ufrgs.br
_version_ 1846255905115471872