Computação Científica (CC)

 

O Setor de Computação Científica da UFABC tem sido planejado desde o início das instalações da UFABC no Campus Santo André e vêm crescendo a cada dia. O parque de equipamentos é considerado substancial e pode ser considerado competitivo com as outras Instituições Nacionais e Internacionais.

As aquisições dos equipamentos foram iniciadas ainda em 2006 e pode ser observado um crescimento exponencial dos usuários, das necessidades e capacitação dos usuários e corpo do técnico de apoio afim de garantir a qualidade dos trabalhos. A gestão dos trabalhos e manutenção dos equipamentos são realizados pela PROPES através do sistema de uso compartilhado e multiusuário.

O parque computacional de alta performance da UFABC atinge várias áreas de conhecimento, como engenharia dos materiais, física, química e biologia. Atualmente dispomos de quatro clusters, com diferentes arquiteturas. Para a instalação dos clusters foi adquirido um vestíbulo com sistema de refrigeração próprio, o SGI Ice Cube Air, o qual dispõe de 20 racks de 51U, suportando até 700kVA de carga elétrica. Acoplado ao SGI Ice Cube Air há um grupo gerador e nobreaks.

Titânio (2620 Cores, 10.4 Tb de RAM, 180 Tb de Storage)

  • Rede Infiniband FDR (56 gbps).
  • 180 Tb brutos de storage.
  • 40 nós de cálculo com 64 cores AMD Opteron 6376 (4 CPUs), 256 Gb de RAM e SSD para arquivos temporários.
  • 03 nós de cálculo com 20 cores Intel Xeon E5-2660 (2 CPUs), 64 Gb de RAM, 3 GPU Tesla K20 e SSD para arquivos temporários.
  • Suporte provisóriamente se encontra no sistema de chamados da UFABC: http://central.ufabc.edu.br, entre no menu NTI e então no item de computação científica.
  • As instruções de uso da Titânio se encontram no Guia do Usuário.
  • Devido a um problema no Storage, estamos operando com um storage improvisado, por isso os usuários estão limitados a 100 Gb de uso no /home.

Recomendamos que os usuários rodem seus códigos no scratch-local que é um SSD com 105 Gb de espaço disponível.

Caso seu job precise de mais que 100 Gb, você pode utilizar o scratch local de disco rígido que tem 917 Gb disponíveis:

Para o Gaussian e ORCA o uso de scratch local é mandatório, por favor utilizem estes scripts de exemplo:

IMPORTANTE: Para jobs com mais que um nó, ou seja, mais de 64 cores, não é possível utilizar nenhum dos scratch locais, isso porque esses scratch ficam dentro dos nós, e se um job ocupa mais que um nó é necessária uma partição que todos nós possam acessar. Pelo mesmo motivo é mandatório manter a flag --ntasks-per-node no script do job, assim evita que o slurm (gerenciador de filas) agende a tarefa em múltiplos nós.

Para conferir o progresso dos jobs que rodam nos scratch locais, é necessário fazer ssh para o nó o qual o job está rodando, entrar no /scratch-local ou /scratch-local-hdd e no diretório com o número do seu job.

Instruções para túnel SSH via hpc.ufabc.edu.br:

Para tranferência de arquivos entre a titanio e computadores externos a UFABC, sigam as seguintes intruções: Tutorial-SSH-Tunnel.pdf

Entre em contato

Bloco L - 3° andar

Avenida dos Estados, n° 5001

Sta. Terezinha - Sto. André - SP

CEP: 09210-580

Email: propes@ufabc.edu.br

 

Telefones

Gabinete: 3356-7614

Administrativo: 3356-7620/7618

IC: 3356-7617

CAP: 3356-7615/7616

Propes-SBC: 2320-6150/6151

CEM-SA: 4996-0028

CEM-SBC: 2320-6176

Biotérios: 3356-7511