Investigadores da USC traballan nun proxecto que podería redefinir as leis da Física

mércores, 21 de abril do 2010 Redacción

A alta tecnoloxía, entre outras moitas finalidades, axúdanos a comprender o que pasa naqueles lugares onde non estivemos nin estaremos. Disto, de saber o que ocorre até no máis mínimo detalle durante e logo de determinados fenómenos externos, é do que trata unha parte importante da innovación física actual, sendo o CERN (European Organisation for Nuclear Research) un dos seus máis salientables exemplos. Segundo se nos conta dende o Grupo de Investigación de Altas Enerxías da Universidade de Santiago de Compostela, os investigadores galegos levan anos mantendo unha estreita colaboración de traballo co devandito organismo europeo, colaboración que en boa medida se centra no estudo das partículas resultantes logo dun Big Bang. As achegas dos científicos galegos, dirixidos dende a USC polo catedrático Bernardo Adeva, únense neste eido de traballo ás de milleiros de investigadores procedentes de máis de 37 países, todos eles convocados polo Large Hadron Collider (pertencente ao CERN), o acelerador de partículas máis grande do mundo. O grupo compostelán, máis polo miúdo, traballa nun dos seis experimentos postos en marcha no LHC para o devandito estudo das consecuencias do Big Bang: o experimento a cargo do Silicon Tracker do detector do LHCb.
Segundo se nos conta dende o equipo galego de investigación, este investiu 10 anos na construción do detector interno do Silicon Tracker, o Inner Tracker, empregando instrumental e tecnoloxía propios. Varios dos seus membros desempeñan labores de coordinación no experimento no CERN. O grupo ademais opera un centro Tier-2 para o proceso de datos do experimento LHCb, e veñen desenvolvendo unha infraestrutura de computación grid para recepción e análise dos datos, en colaboración co Centro de Supercomputación de Galicia, CESGA, e a Universidade de Barcelona.
Detectores de silicio
O experimento LHCb investiga a falta de simetría materia-antimateria a través do estudo das partículas que conteñen o quark b (beauty quark). Os quarks b e anti-b son inestables e efímeros, descompoñéndose rapidamente noutras partículas. Durante as colisións no LHC xeraranse por billóns, e a comparación das súas desintegracións podería achegar datos para explicar porque a natureza favoreceu a materia fronte á antimateria na orixe do Universo. Unha posible explicación podería ser a non conservación da simetría CP nas interaccións que tiveron lugar nos primeiros instantes do universo, debido a que as desintegracións de quarks e antiquarks, con orientacións opostas da súa helicidad, non teñen lugar con igual probabilidade, o que axudaría a explicar a ausencia de antimateria.
Datos recentes permitiron observar, por primeira vez, a non conservación CP en desintegracións de quarks pesados, e indican que esta alcanza valores sensiblemente altos, de ata un 30%. A partir de agora xeraranse estatísticas abondo para desenvolver esta teoría xa que "o experimento que se está a levar a cabo no detector do LHCb posibilitará o estudo de máis desintegracións de quarks b e anti-b do que nunca se observara antes", segundo sinala Adeva Andany. O traballo do grupo da USC xunto cos grupos de Zürich, Lausanne e Heidelberg, supuxo un 25% da construción e instalación no LHC do Silicon Tracker do LHCb, do que é coordinador adxunto un dos seus membros, Abraham Gallas Torreira. Ademais son responsables ao 50%, co instituto Politécnico Federal de Lausanne, construción do Inner Tracker (IT), o detector de precisión de micropistas de silicio construído polo Laboratorio de Física de Altas Enerxías da USC. Serve para detectar as trazas dos quarks b producidos nas colisións e consta de máis de 200.000 canles electrónicas. Os trackers están deseñados especificamente para rexistrar a traxectoria de cada partícula ao seu paso polo detector. A unión destes rastros deixados nas diferentes partes do detector é imprescindible para reconstruír as desintegracións de partículas B.
A cargo da recollida de datos do Silicon Tracker está outro membro do grupo compostelán de Altas Enerxías, Daniel Esperante. O LHCb emprega un sofisticado sistema electrónico para filtrar os datos dos 10 millóns de colisións por segundo que se rexistrarán nos seus detectores, o High Level Trigger. Este algoritmo baseado no concepto de rexións de interese, permite seleccionar os datos de todos os sensores procesándoos en 1000 ordenadores de 16 cores (unidades de proceso), situados na área do LHCb, reducíndoos, tras unha primeira criba que selecciona un millón de eventos por cada segundo, a cantidades máis manexables, duns 2000 eventos por segundo.
15 petabytes de datos ao ano (15 millóns de Gigabytes)
Tras conseguir a enerxía suficiente para reproducir as condicións similares ás existentes no Big Bang, dáse por iniciado o programa de investigación do LHC, e con iso comeza a análise dos 15 petabytes de datos ao ano que, se estima, botarán os experimentos. Para distribuílos, almacenalos e analizalos, creouse o Worldwide LHC Computing Grid, (LCG), unha colaboración global que combina os recursos de computación de máis de 100.000 procesadores en 130 sites (centros) de 34 países, a disposición da comunidade de físicos de altas enerxías. Organizada en 4 niveis (Tier), o Tier 0 está no computador central do CERN, que recolle un primeiro backup de todos os datos en bruto do LHC e os distribúe en tempo real entre os once Tier 1, que á súa vez coordinan e distribúen o envío de datos aos Tier 2. Estes son centros que ofrecen capacidade de almacenamento e de cálculo abondo para tarefas de análise específicas, aos que acceden os científicos a través dos Tier 3, computadores individuais ou clusters aloxados en universidades.
En colaboración co Centro de Supercomputación de Galicia, CESGA, e a Universidade de Barcelona, o Grupo de Física de Altas Enerxías da USC opera un centro Tier-2 cun cluster dedicado en exclusiva ao proceso de datos do experimento LHCb. Juan José Saborido Silva, coordinador do Proxecto de Computación GRID da USC para o CERN, e membro do grupo, considera esencial o desenvolvemento dunha infraestrutura de computación GRID para levar a cabo o experimento na USC. "Tanto para a análise da simulacións que viñemos realizando durante as probas do experimento, como agora que empezan a chegar os datos reais, a infraestrutura grid nos permitiu traballar con enormes volumes de datos a tempo real e dispoñer de recursos de computación impensables fóra do grid". O experimento LHCb terá uns dez anos de vida, durante os que se recollerán millóns de datos que axudarán a comprender a orixe do Universo. Segundo Bernardo Adeva, "poderíanse volver definir as Leis da Física, contidas no Modelo Estándar das interaccións fundamentais".

PUBLICIDADE