Parallel Computing

Parallel Computing Definition

Parallel computing is a type of computing architecture in which several processors simultaneously execute multiple, smaller calculations brought down from an overall larger, complex problem.

Diagram from LLNL mostra a arquitetura geral de computação paralela usada para quebrar problemas complexos maiores em cálculos menores.

FAQs

O que é a computação paralela?

Computação Paralela refere-se ao processo de quebrar problemas maiores em partes menores, independentes, muitas vezes similares que podem ser executadas simultaneamente por múltiplos processadores comunicando através da memória compartilhada, cujos resultados são combinados após a conclusão como parte de um algoritmo global. O principal objetivo da computação paralela é aumentar a potência computacional disponível para um processamento mais rápido de aplicações e resolução de problemas.

infra-estrutura de computação paralela é tipicamente alojada dentro de um único datacenter onde vários processadores são instalados em um rack servidor; pedidos de computação são distribuídos em pequenos pedaços pelo servidor de aplicação que são então executados simultaneamente em cada servidor.

existem geralmente quatro tipos de computação paralela, disponíveis a partir de fornecedores de computação paralela proprietário e open source — bit-level parallelism, instruction-level parallelism, task parallelism, ou superword-level parallelism:

  • Bit-level parallelism: aumenta o tamanho da palavra do processador, o que reduz a quantidade de instruções que o processador deve executar a fim de realizar uma operação em variáveis maiores do que o comprimento da palavra.
  • Parallelismo de Nível de instrução: a abordagem de hardware funciona sobre o paralelismo dinâmico, no qual o processador decide em tempo de execução quais as instruções a executar em paralelo; a abordagem de software funciona sobre o paralelismo estático, no qual o compilador decide quais as instruções a executar em paralelo
  • : uma forma de paralelização de código de computador através de múltiplos processadores que executa várias tarefas diferentes ao mesmo tempo no mesmo dados
  • Superword nível de paralelismo: uma vetorização técnica que pode explorar o paralelismo de código inline

aplicações Paralelas são normalmente classificados como paralelismo refinado, em que as subtarefas irá comunicar-se várias vezes por segundo; coarse-grained paralelismo, em que as subtarefas não comunicar várias vezes por segundo; ou embaraçoso paralelismo, em que as subtarefas raramente ou nunca se comunicam. Mapping in parallel computing is used to solve embarrassingly parallel problems by applying a simple operation to all elements of a sequence without required communication between the subtasks.

the popularization and evolution of parallel computing in the 21st century came in response to processor frequency scaling hitting the power wall. Aumentos na frequência aumentam a quantidade de potência utilizada num processador, e a escala da frequência do processador já não é viável após um determinado ponto; portanto, programadores e fabricantes começaram a projetar software de sistema paralelo e a produzir processadores eficientes de energia com múltiplos núcleos, a fim de resolver a questão do consumo de energia e superaquecimento de unidades centrais de processamento.

A importância da computação paralela continua a crescer com o uso crescente de processadores multicores e GPUs. As GPUs trabalham em conjunto com as CPUs para aumentar a produção de dados e o número de cálculos simultâneos dentro de uma aplicação. Usando o poder do paralelismo, uma GPU pode completar mais trabalho do que uma CPU em uma determinada quantidade de tempo.

Fundamentals of Parallel Computer Architecture

Parallel computer architecture exists in a wide variety of parallel computers, classified according to the level at which the hardware supports parallelism. A arquitetura paralela de computador e as técnicas de programação trabalham juntas para efetivamente utilizar essas máquinas. As classes de arquitecturas de computadores paralelos incluem:

  • computação multi-core: Um processador multi-core é um circuito integrado de computador com dois ou mais núcleos de processamento separados, cada um dos quais executa instruções de programa em paralelo. Os núcleos são integrados em múltiplos dies em um único pacote de chip ou em um único die de circuito integrado, e podem implementar arquiteturas como multithreading, superscalar, vector, ou VLIW. Arquiteturas multi-core são categorizadas como homogêneas, que incluem apenas núcleos idênticos, ou heterogêneas, que incluem núcleos que não são idênticos. multiprocessamento simétrico: multi-processadores de hardware e arquitetura de software em que dois ou mais processadores independentes e homogêneos são controlados por uma única instância do sistema operacional que trata todos os processadores igualmente, e é conectado a uma única memória principal compartilhada com acesso total a todos os recursos e dispositivos comuns. Cada processador tem uma memória de cache privada, pode ser conectado usando redes de malha em chip, e pode trabalhar em qualquer tarefa, não importa onde os dados para essa tarefa estão localizados na memória.computação distribuída: Componentes de Sistema distribuídos são localizados em diferentes computadores em rede que coordenam suas ações, comunicando através de conectores de HTTP puros, RPC e filas de mensagens. As características significativas dos sistemas distribuídos incluem falha independente dos componentes e concorrência dos componentes. Programação distribuída é tipicamente categorizada como client–server, três níveis, n-tier, ou arquitetura peer-to-peer. Há muita sobreposição na computação distribuída e paralela e os termos são às vezes usados de forma intercambiável. computação paralela maciça: refere-se ao uso de inúmeros computadores ou processadores de computador para executar simultaneamente um conjunto de computações em paralelo. Uma abordagem envolve o agrupamento de vários processadores em um cluster de computador fortemente estruturado e centralizado. Outra abordagem é a computação em rede, na qual muitos computadores amplamente distribuídos trabalham juntos e se comunicam através da Internet para resolver um problema particular.

outras arquitecturas de computadores paralelos incluem computadores paralelos especializados, cluster computing, grid computing, processadores vetoriais, circuitos integrados específicos para aplicações, general-purpose computing on graphics processing units (GPGPU), e computação reconfigurável com matrizes de portas de campo programáveis. A memória principal em qualquer estrutura paralela do computador é ou memória distribuída ou memória compartilhada.

soluções de software e técnicas de computação paralela

linguagens de programação simultâneas, APIs, bibliotecas e modelos de programação paralela foram desenvolvidos para facilitar a computação paralela em hardware paralelo. Algumas soluções e técnicas de software de computação paralela incluem:

  • Application checkpointing: uma técnica que fornece tolerância de falha para sistemas de computação, registrando todos os Estados variáveis atuais da aplicação, permitindo que a aplicação restaure e reinicie a partir desse ponto em caso de falha. Checkpointing é uma técnica crucial para sistemas de computação altamente paralelos em que computação de alto desempenho é executado através de um grande número de processadores.
  • parallelização automática: refere-se à conversão de código sequencial em código multi-threaded, a fim de usar múltiplos processadores simultaneamente em uma máquina Multiprocessador de memória compartilhada (SMP). Técnicas de paralelização automática incluem processamento, análise, cronograma e geração de código. Exemplos típicos de Compiladores e ferramentas comuns de parallelização são compilador de paradigmas, compilador Polaris, compilador Rice Fortran D, compilador SUIF e compilador Fortran de Viena. linguagens de programação paralelas: linguagens de programação paralelas são tipicamente classificadas como memória distribuída ou memória compartilhada. Enquanto linguagens de programação de memória distribuídas usam a passagem de mensagens para se comunicar, linguagens de programação de memória compartilhada se comunicam através da manipulação de variáveis de memória compartilhada.

Diferença Entre Computação Paralela e Computação em Nuvem

a computação em Nuvem é um termo geral que se refere a prestação de serviços escaláveis, tais como bases de dados, armazenamento de dados, rede, servidores e software, através da Internet, conforme necessário, pay-as-you-go base. os Serviços de Cloud computing podem ser públicos ou privados, são totalmente gerenciados pelo Provedor e facilitam o acesso remoto a dados, trabalhos e aplicações de qualquer dispositivo em qualquer lugar capaz de estabelecer uma conexão à Internet. As três categorias de serviços mais comuns são A infraestrutura como serviço (IaaS), plataforma como serviço (PaaS) e Software como serviço (SaaS). a computação em nuvem é um paradigma relativamente novo no desenvolvimento de software que facilita um acesso mais amplo à computação paralela através de vastos clusters virtuais, permitindo que o usuário médio e organizações menores possam alavancar o poder de processamento paralelo e opções de armazenamento tipicamente reservadas para grandes empresas.

diferença entre processamento paralelo e Computação Paralela

processamento paralelo é um método em computação no qual partes separadas de uma tarefa complexa global são quebradas e executadas simultaneamente em múltiplas CPUs, reduzindo assim a quantidade de tempo para processamento.

dividir e atribuir cada tarefa a um processador diferente é tipicamente executado por cientistas da computação com a ajuda de ferramentas de processamento paralelo de software, que também irá trabalhar para remontar e ler os dados uma vez que cada processador tenha resolvido sua equação particular. Este processo é realizado através de uma rede de computadores ou através de um computador com dois ou mais processadores.

processamento Paralelo e computação paralela ocorrer em conjunto, portanto, os termos são muitas vezes usados como sinônimos; no entanto, onde o processamento paralelo diz respeito ao número de núcleos e CPUs executam em paralelo no computador, computação paralela preocupações com a forma em que o software se comporta para otimizar para essa condição.

Diferença Entre Sequencial e Computação Paralela

Sequencial de computação, também conhecida como série de computação, refere-se ao uso de um único processador para executar um programa, que é dividido em uma seqüência de discretos instruções, cada executados um após o outro, sem sobreposição a qualquer momento. O Software tem sido tradicionalmente programado sequencialmente, o que fornece uma abordagem mais simples, mas é significativamente limitado pela velocidade do processador e sua capacidade de executar cada série de instruções. Quando máquinas uni-processadores usam estruturas de dados sequenciais, estruturas de dados para ambientes de computação paralela são concorrentes.

medir o desempenho em programação sequencial é muito menos complexo e importante do que benchmarks em computação paralela, uma vez que normalmente envolve apenas a identificação de gargalos no sistema. Benchmarks em computação paralela podem ser alcançados com benchmarking e performance regression testing frameworks, que empregam uma variedade de metodologias de medição, tais como tratamento estatístico e múltiplas repetições. A capacidade de evitar este estrangulamento ao mover dados através da hierarquia de memória é especialmente evidente em computação paralela para ciência de dados, computação paralela de aprendizagem de máquina, e processos de uso de inteligência artificial de computação paralela.

A Computação sequencial é efetivamente o oposto da computação paralela. Enquanto a computação paralela pode ser mais complexa e vir a um custo maior na frente, a vantagem de ser capaz de resolver um problema mais rápido muitas vezes supera o custo de adquirir hardware de computação paralela.

OmniSci oferece uma solução de computação paralela?

a plataforma OmniSci aproveita o enorme poder de computação paralela de GPUs para grandes análises de dados, dando aos grandes analistas de dados e cientistas de dados o poder de questionar interativamente, visualizar e power data science workflows sobre bilhões de registros em milisegundos. A plataforma OmniSci foi projetada para superar as limitações de escalabilidade e desempenho das ferramentas de análise legadas diante da escala, velocidade e atributos de localização dos grandes conjuntos de dados de hoje.

Deixe uma resposta

O seu endereço de email não será publicado. Campos obrigatórios marcados com *