Direito à explicação em inteligência artificial

Detalhes bibliográficos
Ano de defesa: 2025
Autor(a) principal: Santos, Marcelo Fonseca
Orientador(a): Pinto, Felipe Chiarello de Souza
Banca de defesa: Não Informado pela instituição
Tipo de documento: Dissertação
Tipo de acesso: Acesso aberto
Idioma: por
eng
Instituição de defesa: Universidade Presbiteriana Mackenzie
Programa de Pós-Graduação: Não Informado pela instituição
Departamento: Não Informado pela instituição
País: Não Informado pela instituição
Palavras-chave em Português:
Link de acesso: https://dspace.mackenzie.br/handle/10899/40483
Resumo: A Inteligência Artificial (IA) é um campo que visa criar sistemas capazes de realizar tarefas que normalmente requerem inteligência humana, como reconhecimento de padrões, raciocínio lógico e tomada de decisão automatizada. A pesquisa analisa como os dados de forma exponencial se correlacionam com as aplicações envolvendo Inteligência Artificial. As decisões automatizadas proferidas por esses sistemas são muitas vezes denominadas e consideradas como caixas pretas, pois não fornecem uma explicação clara e compreensível sobre como chegaram às suas decisões automatizadas, as denominadas Black Box. A pesquisa aborda os sistemas de IA, como eles sã afetados peas decisões humanas e perfilamento de dados de comportamento, e como podem gerar problemas éticos, jurídicos, econômicos e sociais, bem como na economia de mercado. O objetivo é apresentar uma visão geral sobre a Inteligência Artificial, as decisões humanas, e como influenciam as decisões automatizadas, como regulações contemporâneas e ex ante podem auxiliar na concretização do Direito à Explicação em Inteligência Artificial, e melhorar sobremaneira os mecanismos de Explicabilidade. A pesquisa e dissertação utilizam metodologia baseada em leitura e análise bibliográfica e de artigos científicos, ou seja, método Hipotético-Dedutivo: “o pesquisador elege o conjunto de proposições hipotéticas que acredita serem viáveis como estratégia de abordagem para se aproximar de seu objeto”. A análise crítica permite examinar os desafios e as limitações das técnicas existentes, bem como as implicações éticas, jurídicas e sociais do Direito à Explicação em Inteligência Artificial. A pesquisa têm desafios, como: (i) Decisões Automatixadas e relação das Decisões Humanas, discutindo os benefícios e os riscos de delegar ou compartilhar dados pessoais e comportamentais com as máquinas e seus sistemas; (ii) a Neuroeconomia em virtude do Perfilamento de Dados; (iii) Regulamentações Ex Ante e Mecanismos Positivos; (iv) Existência e concretização do Direito à Explicação; (v) Explicabilidade em Inteligência Artificial. Dessa maneira, a pesquisa procurou responder ao problema: Existe Direito à Explicação em Inteligências Artificiais? Os capítulos foram desenvolvidos com o escopo de expor ao leitor compreensão sobre o que são, como funcionam e aprendem os sistemas de Inteligência Artificial, como humanos tomam decisões, e essas Decisões influenciam (Direitos de Personalidade) o Aprendizado e as Decisões da Inteligência Artificial. Como os seres humanos são influenciados pela neuroeconomia, e posteriormente a dissertação trata da importância das regulações Ex Ante como governança de dados, o compliance digital e a governança de inteligência artificial como mitigadores de risco, atuando na prevenção e produção de documentos que permitem maior capacidade de explicar (Direito à Explicação) a automatização decisória, permitindo sua revisão ou confirmação, e também tratando dos sistemas específicos possam atuar na Explicabilidade da Inteligência Artificial, proporcionando maior confiança, ética e transparência para a inteligência artificial, e, também, a Inteligência Artificial Explicável (XAI).
id UPM_29ad1ce535ff2b7f8ddf5f49a4fe93c6
oai_identifier_str oai:dspace.mackenzie.br:10899/40483
network_acronym_str UPM
network_name_str Repositório Digital do Mackenzie
repository_id_str
spelling Santos, Marcelo FonsecaPinto, Felipe Chiarello de Souza2025-04-14T21:10:36Z2025-04-14T21:10:36Z2025-02-10https://dspace.mackenzie.br/handle/10899/40483A Inteligência Artificial (IA) é um campo que visa criar sistemas capazes de realizar tarefas que normalmente requerem inteligência humana, como reconhecimento de padrões, raciocínio lógico e tomada de decisão automatizada. A pesquisa analisa como os dados de forma exponencial se correlacionam com as aplicações envolvendo Inteligência Artificial. As decisões automatizadas proferidas por esses sistemas são muitas vezes denominadas e consideradas como caixas pretas, pois não fornecem uma explicação clara e compreensível sobre como chegaram às suas decisões automatizadas, as denominadas Black Box. A pesquisa aborda os sistemas de IA, como eles sã afetados peas decisões humanas e perfilamento de dados de comportamento, e como podem gerar problemas éticos, jurídicos, econômicos e sociais, bem como na economia de mercado. O objetivo é apresentar uma visão geral sobre a Inteligência Artificial, as decisões humanas, e como influenciam as decisões automatizadas, como regulações contemporâneas e ex ante podem auxiliar na concretização do Direito à Explicação em Inteligência Artificial, e melhorar sobremaneira os mecanismos de Explicabilidade. A pesquisa e dissertação utilizam metodologia baseada em leitura e análise bibliográfica e de artigos científicos, ou seja, método Hipotético-Dedutivo: “o pesquisador elege o conjunto de proposições hipotéticas que acredita serem viáveis como estratégia de abordagem para se aproximar de seu objeto”. A análise crítica permite examinar os desafios e as limitações das técnicas existentes, bem como as implicações éticas, jurídicas e sociais do Direito à Explicação em Inteligência Artificial. A pesquisa têm desafios, como: (i) Decisões Automatixadas e relação das Decisões Humanas, discutindo os benefícios e os riscos de delegar ou compartilhar dados pessoais e comportamentais com as máquinas e seus sistemas; (ii) a Neuroeconomia em virtude do Perfilamento de Dados; (iii) Regulamentações Ex Ante e Mecanismos Positivos; (iv) Existência e concretização do Direito à Explicação; (v) Explicabilidade em Inteligência Artificial. Dessa maneira, a pesquisa procurou responder ao problema: Existe Direito à Explicação em Inteligências Artificiais? Os capítulos foram desenvolvidos com o escopo de expor ao leitor compreensão sobre o que são, como funcionam e aprendem os sistemas de Inteligência Artificial, como humanos tomam decisões, e essas Decisões influenciam (Direitos de Personalidade) o Aprendizado e as Decisões da Inteligência Artificial. Como os seres humanos são influenciados pela neuroeconomia, e posteriormente a dissertação trata da importância das regulações Ex Ante como governança de dados, o compliance digital e a governança de inteligência artificial como mitigadores de risco, atuando na prevenção e produção de documentos que permitem maior capacidade de explicar (Direito à Explicação) a automatização decisória, permitindo sua revisão ou confirmação, e também tratando dos sistemas específicos possam atuar na Explicabilidade da Inteligência Artificial, proporcionando maior confiança, ética e transparência para a inteligência artificial, e, também, a Inteligência Artificial Explicável (XAI).CAPES - Coordenação de Aperfeiçoamento de Pessoal de NívelporengUniversidade Presbiteriana Mackenzieinteligência artificialneurociênciasdecisõesexplicaçãoexplicabilidadeDireito à explicação em inteligência artificialinfo:eu-repo/semantics/publishedVersioninfo:eu-repo/semantics/masterThesisreponame:Repositório Digital do Mackenzieinstname:Universidade Presbiteriana Mackenzie (MACKENZIE)instacron:MACKENZIEinfo:eu-repo/semantics/openAccesshttp://lattes.cnpq.br/9554142049617388https://orcid.org/0000-0002-2834-6324http://lattes.cnpq.br/9923895914317734https://orcid.org/0009-0001-3391-6766Moreira, Diogo Rais Rodrigueshttp://lattes.cnpq.br/7309547447201302https://orcid.org/0000-0002-3956-4714Barreto Júnior, Irineu Franciscohttp://lattes.cnpq.br/7560057199454974Artificial Intelligence (AI) is a field that aims to create systems capable of performing tasks that typically require human intelligence, such as pattern recognition, logical reasoning, and automated decision-making. The research analyzes how data exponentially correlates with applications involving Artificial Intelligence. The automated decisions made by these systems are often referred to and considered as black boxes, as they do not provide a clear and understandable explanation of how they arrived at their automated decisions, the so-called Black Box. The research addresses AI systems, how they are affected by human decisions and behavioral data profiling, and how they can generate ethical, legal, economic, and social problems, as well as in the market economy. The objective is to present an overview of Artificial Intelligence, human decisions, and how they influence automated decisions, how contemporary and "ex ante" regulations can assist in the realization of the Right to Explanation in Artificial Intelligence, and significantly improve the mechanisms of Explainability. The research and dissertation utilize a methodology based on reading and analyzing bibliographic sources and scientific articles, that is, the Hypothetico-Deductive method: "the researcher selects the set of hypothetical propositions that they believe are viable as a strategy to approach their object." The critical analysis allows for the examination of the challenges and limitations of existing techniques, as well as the ethical, legal, and social implications of the Right to Explanation in Artificial Intelligence. The research has challenges, such as: (i) Automated Decisions and the relationship with Human Decisions, discussing the benefits and risks of delegating or sharing personal and behavioral data with machines and their systems; (ii) Neuroeconomics due to Data Profiling; (iii) "Ex Ante" Regulations and Positive Mechanisms; (iv) Existence and realization of the Right to Explanation; (v) Explainability in Artificial Intelligence.In this way, the research sought to answer the question: Is there a Right to Explanation in Artificial Intelligences? The chapters were developed with the aim of providing the reader with an understanding of what Artificial Intelligence systems are, how they function and learn, how humans make decisions, and how these decisions influence (Personality Rights) the Learning and Decisions of Artificial Intelligence. As human beings are influenced by neuroeconomics, and subsequently, the dissertation addresses the importance of "Ex Ante" regulations such as data governance, digital compliance, and artificial intelligence governance as risk mitigators, acting in the prevention and production of documents that allow for a greater capacity to explain (Right to Explanation) decision automation, enabling its review or confirmation, and also addressing specific systems that can act on the Explainability of Artificial Intelligence, providing greater trust, ethics, and transparency for artificial intelligence, and also, Explainable Artificial Intelligence (XAI).artificial intelligenceneurosciencesdecisionsexplanationexplainabilityBrasilFaculdade de Direito (FDIR)UPMDireito Político e EconômicoCNPQ::CIENCIAS SOCIAIS APLICADAS::DIREITO::DIREITO PUBLICO::DIREITO CONSTITUCIONALORIGINALMARCELO FONSECA SANTOS....pdfMARCELO FONSECA SANTOS....pdfapplication/pdf1017687https://dspace.mackenzie.br/bitstreams/8bae7229-c510-43de-8567-ee174d9bbf5e/downloadf8f32b7d7ae8b0020ec2e43d13cf15c2MD51trueAnonymousREADLICENSElicense.txtlicense.txttext/plain; charset=utf-82269https://dspace.mackenzie.br/bitstreams/2c2dc84e-f094-45a3-a30c-3995b498e7a8/downloadf0d4931322d30f6d2ee9ebafdf037c16MD52falseAnonymousREADTEXTMARCELO FONSECA SANTOS....pdf.txtMARCELO FONSECA SANTOS....pdf.txtExtracted texttext/plain488402https://dspace.mackenzie.br/bitstreams/a34e61db-f634-4024-8a27-a5d8b1e41146/download98cf26c2a639737afd09b099a9891fa0MD53falseAnonymousREADTHUMBNAILMARCELO FONSECA SANTOS....pdf.jpgMARCELO FONSECA SANTOS....pdf.jpgGenerated Thumbnailimage/jpeg2324https://dspace.mackenzie.br/bitstreams/ce5f6aad-11eb-4bd5-a4d9-72736eb8e415/download3eccc309510884b1ed8b57303c89d521MD54falseAnonymousREAD10899/404832025-04-15T06:01:16.252Zopen.accessoai:dspace.mackenzie.br:10899/40483https://dspace.mackenzie.brBiblioteca Digital de Teses e Dissertaçõeshttp://tede.mackenzie.br/jspui/PRIhttps://adelpha-api.mackenzie.br/server/oai/repositorio@mackenzie.br||paola.damato@mackenzie.bropendoar:102772025-04-15T06:01:16Repositório Digital do Mackenzie - Universidade Presbiteriana Mackenzie (MACKENZIE)falseTElDRU7Dh0EgREUgRElTVFJJQlVJw4fDg08gTsODTy1FWENMVVNJVkEKPGJyPjxicj4KQ29tIG8gYWNlaXRlIGRlc3RhIGxpY2Vuw6dhLCB2b2PDqiAobyBhdXRvciAoZXMpIG91IG8gdGl0dWxhciBkb3MgZGlyZWl0b3MgZGUgYXV0b3IpIGNvbmNlZGUgw6AgVW5pdmVyc2lkYWRlIFByZXNiaXRlcmlhbmEgTWFja2VuemllIG8gZGlyZWl0byBuw6NvLWV4Y2x1c2l2byBkZSByZXByb2R1emlyLCB0cmFkdXppciAoY29uZm9ybWUgZGVmaW5pZG8gYWJhaXhvKSwgZS9vdSBkaXN0cmlidWlyIHNldSB0cmFiYWxobyAoaW5jbHVpbmRvIG8gcmVzdW1vKSBwb3IgdG9kbyBvIG11bmRvIG5vIGZvcm1hdG8gaW1wcmVzc28gZSBlbGV0csO0bmljbyBlIGVtIHF1YWxxdWVyIG1laW8sIGluY2x1aW5kbyBvcyBmb3JtYXRvcyDDoXVkaW8gb3UgdsOtZGVvLgo8YnI+PGJyPgpBY2VpdGFuZG8gZXNzYSBsaWNlbsOnYSB2b2PDqiBjb25jb3JkYSBxdWUgYSBVbml2ZXJzaWRhZGUgUHJlc2JpdGVyaWFuYSBNYWNrZW56aWUgcG9kZSwgc2VtIGFsdGVyYXIgbyBjb250ZcO6ZG8sIHRyYW5zcG9yIG8gc2V1IHRyYWJhbGhvIHBhcmEgcXVhbHF1ZXIgbWVpbyBvdSBmb3JtYXRvIGUgbWFudGVyIG1haXMgZGUgdW1hIGPDs3BpYSBkbyBzZXUgdHJhYmFsaG8gcGFyYSBmaW5zIGRlIHNlZ3VyYW7Dp2EsIGJhY2stdXAgZSBwcmVzZXJ2YcOnw6NvLgo8YnI+PGJyPgpDb25jb3JkYXLDoSBxdWUgc2V1IHRyYWJhbGhvIHRhbWLDqW0gc2Vyw6EgcmVnaWRvIHBlbGEgQ3JlYXRpdmUgQ29tbW9ucyBxdWUgTsODTyBwZXJtaXRlIG8gdXNvIGNvbWVyY2lhbCBvdSBxdWFscXVlciBhbHRlcmHDp8OjbyBkYSBvYnJhIHBvciB0ZXJjZWlyb3MgY29uZm9ybWUgZGVzY3JpdG8gZW0gPGEgaHJlZj0iaHR0cHM6Ly9jcmVhdGl2ZWNvbW1vbnMub3JnL2xpY2Vuc2VzL2J5LW5jLW5kLzQuMC8iIHRhcmdldD0iX2JsYW5rIj5odHRwczovL2NyZWF0aXZlY29tbW9ucy5vcmcvbGljZW5zZXMvYnktbmMtbmQvNC4wLzwvYT4uCjxicj48YnI+ClZvY8OqIGRlY2xhcmEgcXVlIHNldSB0cmFiYWxobyDDqSBvcmlnaW5hbCBlIHF1ZSB2b2PDqiB0ZW0gbyBwb2RlciBkZSBjb25jZWRlciBvcyBkaXJlaXRvcyBjb250aWRvcyBuZXN0YSBsaWNlbsOnYS4gRGVjbGFyYSB0YW1iw6ltIHF1ZSBvIGRlcMOzc2l0byBkbyBzZXUgdHJhYmFsaG8gbsOjbywgcXVlIHNlamEgZGUgc2V1IGNvbmhlY2ltZW50bywgaW5mcmluZ2UgZGlyZWl0b3MgYXV0b3JhaXMgZGUgbmluZ3XDqW0uCjxicj48YnI+CkNhc28gbyBzZXUgdHJhYmFsaG8gY29udGVuaGEgbWF0ZXJpYWwgcXVlIHZvY8OqIG7Do28gcG9zc3VpIGEgdGl0dWxhcmlkYWRlIGRvcyBkaXJlaXRvcyBhdXRvcmFpcywgdm9jw6ogZGVjbGFyYSBxdWUgb2J0ZXZlIGEgcGVybWlzc8OjbyBpcnJlc3RyaXRhIGRvIGRldGVudG9yIGRvcyBkaXJlaXRvcyBhdXRvcmFpcyBwYXJhIGNvbmNlZGVyIMOgIFVuaXZlcnNpZGFkZSBQcmVzYml0ZXJpYW5hIE1hY2tlbnppZSBvcyBkaXJlaXRvcyBhcHJlc2VudGFkb3MgbmVzdGEgbGljZW7Dp2EsIGUgcXVlIGVzc2UgbWF0ZXJpYWwgZGUgcHJvcHJpZWRhZGUgZGUgdGVyY2Vpcm9zIGVzdMOhIGNsYXJhbWVudGUgaWRlbnRpZmljYWRvIGUgcmVjb25oZWNpZG8gbm8gdGV4dG8gb3Ugbm8gY29udGXDumRvIGRvIHNldSB0cmFiYWxobyBvcmEgZGVwb3NpdGFkby4KPGJyPjxicj4KQ0FTTyBPIFRSQUJBTEhPIE9SQSBERVBPU0lUQURPIFRFTkhBIFNJRE8gUkVTVUxUQURPIERFIFVNIFBBVFJPQ8ONTklPIE9VIEFQT0lPIERFIFVNQSBBR8OKTkNJQSBERSBGT01FTlRPIE9VIE9VVFJPIE9SR0FOSVNNTyBRVUUgTsODTyBTRUpBIEEgVU5JVkVSU0lEQURFIFBSRVNCSVRFUklBTkEgTUFDS0VOWklFLCBWT0PDiiBERUNMQVJBIFFVRSBSRVNQRUlUT1UgVE9ET1MgRSBRVUFJU1FVRVIgRElSRUlUT1MgREUgUkVWSVPDg08gQ09NTyBUQU1Cw4lNIEFTIERFTUFJUyBPQlJJR0HDh8OVRVMgRVhJR0lEQVMgUE9SIENPTlRSQVRPIE9VIEFDT1JETy4KPGJyPjxicj4KQSBVbml2ZXJzaWRhZGUgUHJlc2JpdGVyaWFuYSBNYWNrZW56aWUgc2UgY29tcHJvbWV0ZSBhIGlkZW50aWZpY2FyIGNsYXJhbWVudGUgbyBzZXUgbm9tZSAocykgb3UgbyhzKSBub21lKHMpIGRvKHMpIGRldGVudG9yKGVzKSBkb3MgZGlyZWl0b3MgYXV0b3JhaXMgZG8gc2V1IHRyYWJhbGhvLCBlIG7Do28gZmFyw6EgcXVhbHF1ZXIgYWx0ZXJhw6fDo28sIGFsw6ltIGRhcXVlbGFzIGNvbmNlZGlkYXMgcG9yIGVzdGEgbGljZW7Dp2EuCg==
dc.title.none.fl_str_mv Direito à explicação em inteligência artificial
title Direito à explicação em inteligência artificial
spellingShingle Direito à explicação em inteligência artificial
Santos, Marcelo Fonseca
inteligência artificial
neurociências
decisões
explicação
explicabilidade
title_short Direito à explicação em inteligência artificial
title_full Direito à explicação em inteligência artificial
title_fullStr Direito à explicação em inteligência artificial
title_full_unstemmed Direito à explicação em inteligência artificial
title_sort Direito à explicação em inteligência artificial
author Santos, Marcelo Fonseca
author_facet Santos, Marcelo Fonseca
author_role author
dc.contributor.author.fl_str_mv Santos, Marcelo Fonseca
dc.contributor.advisor1.fl_str_mv Pinto, Felipe Chiarello de Souza
contributor_str_mv Pinto, Felipe Chiarello de Souza
dc.subject.por.fl_str_mv inteligência artificial
neurociências
decisões
explicação
explicabilidade
topic inteligência artificial
neurociências
decisões
explicação
explicabilidade
description A Inteligência Artificial (IA) é um campo que visa criar sistemas capazes de realizar tarefas que normalmente requerem inteligência humana, como reconhecimento de padrões, raciocínio lógico e tomada de decisão automatizada. A pesquisa analisa como os dados de forma exponencial se correlacionam com as aplicações envolvendo Inteligência Artificial. As decisões automatizadas proferidas por esses sistemas são muitas vezes denominadas e consideradas como caixas pretas, pois não fornecem uma explicação clara e compreensível sobre como chegaram às suas decisões automatizadas, as denominadas Black Box. A pesquisa aborda os sistemas de IA, como eles sã afetados peas decisões humanas e perfilamento de dados de comportamento, e como podem gerar problemas éticos, jurídicos, econômicos e sociais, bem como na economia de mercado. O objetivo é apresentar uma visão geral sobre a Inteligência Artificial, as decisões humanas, e como influenciam as decisões automatizadas, como regulações contemporâneas e ex ante podem auxiliar na concretização do Direito à Explicação em Inteligência Artificial, e melhorar sobremaneira os mecanismos de Explicabilidade. A pesquisa e dissertação utilizam metodologia baseada em leitura e análise bibliográfica e de artigos científicos, ou seja, método Hipotético-Dedutivo: “o pesquisador elege o conjunto de proposições hipotéticas que acredita serem viáveis como estratégia de abordagem para se aproximar de seu objeto”. A análise crítica permite examinar os desafios e as limitações das técnicas existentes, bem como as implicações éticas, jurídicas e sociais do Direito à Explicação em Inteligência Artificial. A pesquisa têm desafios, como: (i) Decisões Automatixadas e relação das Decisões Humanas, discutindo os benefícios e os riscos de delegar ou compartilhar dados pessoais e comportamentais com as máquinas e seus sistemas; (ii) a Neuroeconomia em virtude do Perfilamento de Dados; (iii) Regulamentações Ex Ante e Mecanismos Positivos; (iv) Existência e concretização do Direito à Explicação; (v) Explicabilidade em Inteligência Artificial. Dessa maneira, a pesquisa procurou responder ao problema: Existe Direito à Explicação em Inteligências Artificiais? Os capítulos foram desenvolvidos com o escopo de expor ao leitor compreensão sobre o que são, como funcionam e aprendem os sistemas de Inteligência Artificial, como humanos tomam decisões, e essas Decisões influenciam (Direitos de Personalidade) o Aprendizado e as Decisões da Inteligência Artificial. Como os seres humanos são influenciados pela neuroeconomia, e posteriormente a dissertação trata da importância das regulações Ex Ante como governança de dados, o compliance digital e a governança de inteligência artificial como mitigadores de risco, atuando na prevenção e produção de documentos que permitem maior capacidade de explicar (Direito à Explicação) a automatização decisória, permitindo sua revisão ou confirmação, e também tratando dos sistemas específicos possam atuar na Explicabilidade da Inteligência Artificial, proporcionando maior confiança, ética e transparência para a inteligência artificial, e, também, a Inteligência Artificial Explicável (XAI).
publishDate 2025
dc.date.accessioned.fl_str_mv 2025-04-14T21:10:36Z
dc.date.available.fl_str_mv 2025-04-14T21:10:36Z
dc.date.issued.fl_str_mv 2025-02-10
dc.type.status.fl_str_mv info:eu-repo/semantics/publishedVersion
dc.type.driver.fl_str_mv info:eu-repo/semantics/masterThesis
format masterThesis
status_str publishedVersion
dc.identifier.uri.fl_str_mv https://dspace.mackenzie.br/handle/10899/40483
url https://dspace.mackenzie.br/handle/10899/40483
dc.language.iso.fl_str_mv por
eng
language por
eng
dc.rights.driver.fl_str_mv info:eu-repo/semantics/openAccess
eu_rights_str_mv openAccess
dc.publisher.none.fl_str_mv Universidade Presbiteriana Mackenzie
publisher.none.fl_str_mv Universidade Presbiteriana Mackenzie
dc.source.none.fl_str_mv reponame:Repositório Digital do Mackenzie
instname:Universidade Presbiteriana Mackenzie (MACKENZIE)
instacron:MACKENZIE
instname_str Universidade Presbiteriana Mackenzie (MACKENZIE)
instacron_str MACKENZIE
institution MACKENZIE
reponame_str Repositório Digital do Mackenzie
collection Repositório Digital do Mackenzie
bitstream.url.fl_str_mv https://dspace.mackenzie.br/bitstreams/8bae7229-c510-43de-8567-ee174d9bbf5e/download
https://dspace.mackenzie.br/bitstreams/2c2dc84e-f094-45a3-a30c-3995b498e7a8/download
https://dspace.mackenzie.br/bitstreams/a34e61db-f634-4024-8a27-a5d8b1e41146/download
https://dspace.mackenzie.br/bitstreams/ce5f6aad-11eb-4bd5-a4d9-72736eb8e415/download
bitstream.checksum.fl_str_mv f8f32b7d7ae8b0020ec2e43d13cf15c2
f0d4931322d30f6d2ee9ebafdf037c16
98cf26c2a639737afd09b099a9891fa0
3eccc309510884b1ed8b57303c89d521
bitstream.checksumAlgorithm.fl_str_mv MD5
MD5
MD5
MD5
repository.name.fl_str_mv Repositório Digital do Mackenzie - Universidade Presbiteriana Mackenzie (MACKENZIE)
repository.mail.fl_str_mv repositorio@mackenzie.br||paola.damato@mackenzie.br
_version_ 1854952096496877568