mir.pe (일반/밝은 화면)
최근 수정 시각 : 2024-11-18 21:04:57

LHC

대형 강입자 충돌기에서 넘어옴
실험물리학 · 거대과학
Experimental Physics · Big Science
{{{#!wiki style="margin:0 -10px -5px;min-height:2em"
{{{#!folding [ 펼치기 · 접기 ]
{{{#!wiki style="margin:-6px -1px -11px"
<colbgcolor=#223360> 기반 체계 양자역학( 양자장론) · 전자기학 · 열역학 · 통계역학 · 상대성 이론 · 고전역학 · 유체역학
활용 핵물리학 · 입자물리학 · 전자공학 · 컴퓨터공학 · 원자력공학 · 항공우주공학
실험 이중슬릿 실험 · 밀리컨의 기름방울실험 · 음극선 실험 · 입자 충격 실험 · 방사선 회절 실험
기구 및 측정 가이거 계수기 · 거품상자 · 계산기( 컴퓨터) · 분광기 · 자기공명장치( NMR) · 안개상자
물리 상수 · 차원분석
거대과학 핵개발 · 핵융합 · 레이저 · 입자가속기 · 중성미자 검출기 · 우주개발 · 우주 탐사 · 우주망원경 · 슈퍼컴퓨터 · 인간 게놈 프로젝트
가속기 <colbgcolor=#223360> 분류 고주파 가속기 · 레이저 가속기 · 정전 가속기 · 이온가속기 · 중성입자 가속기 · 전자가속기
선형 SLAC · ILC
원형 사이클로트론 · LHC · 테바트론
검출 ATLAS · CMS · ALICE · LHCb
기타 물리화학
}}}}}}}}} ||

1. 개요2. 상세3. 구조
3.1. 가속기3.2. 검출기
3.2.1. ATLAS3.2.2. CMS3.2.3. ALICE3.2.4. LHCb
4. 연구 방식
4.1. 데이터 분석4.2. 서비스 워크
5. 목적6. 현황 및 업적7. 유사과학론자의 떡밥8. 기타9. 외부 링크


파일:external/upload.wikimedia.org/Location_Large_Hadron_Collider.png
지도에 그려진 큰 원이 LHC, 작은 원이 SPS

파일:external/environmentalarmageddon.files.wordpress.com/lhc-sim.jpg
지상에서의 투과 상상도

1. 개요

Large Hadron Collider

LHC 스위스 제네바 프랑스 오베르뉴론알프 앵(Ain) 주의 국경지대 지하에 건설된 입자가속기로, CERN이 관리하는 인류 역사상 가장 거대한 실험장치이다.

2. 상세


파일:external/upload.wikimedia.org/LHC.png
LHC의 간략 구성도
SPS, PS는 양성자 싱크로트론(Proton Synchrotron, 간단하게 양성자 부스터)으로 SPS의 첫 글자 S는 Super, 노란색 글씨는 충돌 실험이 일어나는 관측기들을 의미한다. 다만 사진으로 봐도 알 수 있는 사실이겠지만 저 원 내부 전체가 LHC는 아니다. 실상은 저 '선 바로 아래'(+검출기)만 LHC에 해당한다고 볼 수 있다. 그리고 가속기와 검출기 전부가 지하 175 m 지점에 묻혀 있어 아예 지하로 들어가지 않는 한 볼 수 없다. 심지어 아무 때에나 지하로 내려갈 수 있는 게 아니다. LHC가 가동되는 동안에는 방사능이 워낙 강해서 그렇다. 어느 정도냐면 가동 중지하고 일주일 내지 한 달은 기다려야 겨우 들어갈 수 있을 정도. 크기가 커서 그런 것도 있지만 더 중요한 것으로 우주선[1] 및 외부 잡음으로부터의 영향을 최소화하기 위한 것이다.[2] 실제로 이런 이유 때문에 대부분의 대규모 정밀 실험 장치들은 깊은 지하에 위치한다. 물론 가동 시에 방출되는 막대한 방사선을 차폐하는 것도 이유이다.

전 세계 85개국에서 1만 명이 넘는 저명한 물리학자들이 모여 25년간 약 32~64억 유로에 이르는 연구비(건설비, 유지보수비, 실험비용 포함)를 투입하였다. 크기는 둘레 27 km, 예상 출력 에너지는 14 TeV이고, 현재 13 TeV로 구동 중에 있다. 전자석을 초전도체로 만들었기 때문에 10 K(영하 263 ℃)의 온도가 유지되고 있는, 세계에서 가장 차가운 곳이기도 하다.[3]

양성자-양성자, 양성자- 원자핵(Pb), 원자핵-원자핵(Pb-Pb)의 충돌[4]을 통하여 재현되는 고온 고압의 '미니 빅뱅'에서 '쿼크-글루온 플라즈마'로 알려진 극한상태의 핵물질이 만들어질 것으로 예측하고, 그 존재와 특성을 실험적으로 검증하고 있다. 각기 다른 물리학적 목표를 가지는 네 개의 검출기(ATLAS, CMS, ALICE, LHCb)에서 충돌 실험이 수행되고 있으며, 그에 따른 결과 기록 및 분석 작업 또한 이루어지고 있다.

양성자-반양성자 충돌 실험이 아닌 양성자-양성자 충돌 실험이다. 전공자가 아닌 사람이 보기에 양성자-양성자 충돌로는 쌍소멸 같은 걸 못 만들어서 의미 없는 실험이지 않은가 하고 반문할 수도 있겠다. 하지만 양성자는 내부 구조를 가지고 있으며 특히 쿼크보다 글루온이 더 많다.[5] 글루온들끼리는 상호작용이 가능하며, 이들의 반응을 통해서도 쌍소멸 못지 않은 다양한 반응이 가능해진다. 일례로 힉스 입자가 나올 수 있는 가장 대표적인 프로세스로 글루온 두 개가 중간 다리 역할을 하는 탑 쿼크 루프를 만들어 힉스 하나를 방출하는 케이스.

또한 양성자 내부에는 실질적으로 훨씬 더 많은 쿼크들이 존재할 수 있다. 반 업 쿼크, 반 다운 쿼크는 물론 심지어 그 무거운 바텀 쿼크도 존재할 수 있다. 간단히 쌍생성-쌍소멸이 계속 반복되는 상황을 생각하면 좋다. 심지어 양성자의 에너지에 따라 쿼크들과 글루온의 분포가 바뀌며 무거운 쿼크들의 분포가 꽤 많이 커지게 된다. 그래서 양성자-양성자 충돌로도 충분히 실험이 가능한 것. 물론 양성자-반양성자 충돌이 뭔가 더 살뜰해 보일 수도 있겠지만 둘 다 양성자로 할 경우 가장 큰 이점이 뭐냐면 충돌 이벤트 개수를 크게 늘릴 수 있다는 것이다. 양성자야 수소 원자가 지구상에 널린 만큼 얼마든지 끌어다 쓸 수 있지만 반양성자는 인공적으로 만들어야 하며 많이 만들기가 어렵다. 그래서 양성자-반양성자 충돌 실험을 한 테바트론보다 훨씬 더 많은 충돌 횟수를 LHC는 쉽게 얻을 수 있는 것이다.

그럼에도 테바트론에서 굳이 양성자-반양성자 충돌을 쓴 이유를 들자면 사실 물리적으로 복잡한 이야기이다. 테바트론의 에너지 레벨에서는 미묘하게도 양성자-반양성자 충돌이 양성자-양성자 충돌보다 흥미로운 반응들을 좀 더 많이 끌어낼 수 있었다. 특히 테바트론의 주요 목표인 탑 쿼크 발견을 하기 위해서는 양성자-반양성자 충돌이 그 당시 에너지 레벨에서 더욱 효율적이었다. 물론 테바트론보다 에너지 레벨이 낮아지면 낮아질수록 양성자-반양성자 반응이 양성자-양성자 반응보다 훨씬 더 쓸 만해진다. 괜히 LHC 이전 세대 강입자 가속기들이 모두 양성자-반양성자 충돌을 택했던 게 아니다. 거꾸로 말하자면, LHC의 출력이 충분히 높아져서 이제는 양성자-양성자 반응이 양성자-반양성자 반응보다 더욱 효율적이게 됐다는 것이다.

테바트론과 비교했을 때 LHC가 진일보한 점 중 또 한 가지로 연산 능력을 들 수 있다. 테바트론이 건설되고 운용될 때에 비해 LHC가 가동을 시작할 때 즈음에 컴퓨팅 파워는 눈부실 정도로 향상되었다. 테바트론 연구자들 말에 따르면 당시에는 수십 메가 바이트짜리 데이터들로 빠듯하게 프로그래밍을 했어야 했다고 한다. 지금 LHC는 가동 시에 이미 초당 기가 바이트의 데이터를 내뿜는다. 한 주제를 가지고 분석을 할 때 일년 치 데이터가 어느 정도 추려서 수 테라 바이트에 이른다. 참고로 이건 시뮬레이션을 제외하고 실험으로 나온 데이터만 가지고 추렸을 때의 수치이고, 그마저도 너무 자세한 걸 제외한 것들만 쳤을 때의 데이터이다.

그리고 이런 데이터들을 분산 처리할 수 있는 막강한 전산 시스템들이 CERN 내 뿐만 아니라 세계 도처에 있다. 지금 이 순간에도 수많은 클러스터 컴퓨터들이 열심히 시뮬레이션하고 데이터를 가공하고 분석하고 있는 중이다.[6] 좀 더 비교를 하자면 예를 들어 LHC에서 2016년 한 해 동안 모은 데이터는 대략 36 fb-1[7]인데, 테바트론이 2002년부터 2011년까지 모은 데이터는 대략 10.5 fb-1이다. 1년 동안 모은 게 9년 동안 모은 것보다 3배 넘게 많은 수준이다! 생각보다 많지 않을 수도 있겠지만 충돌 하나하나로부터 얻어진 데이터의 크기가 엄청나게 차이나는 것도 감안하면 그야말로 천지차이. 거기다 입자의 경로를 파악하는 데 있어서 LHC 전에는 구현이 어려웠던 재구성 알고리즘을 이젠 아무렇지 않게 쓴다. 그것도 모자라 기술이 더 발달해 이젠 그 휘도를 10~100배로 올리는 업그레이드가 차후 진행될 예정에 있다.

LHC의 물리학적인 목표는 크게 두 가지로 구분할 수 있는데, 첫 번째는 ‘빅뱅이 발생한 후 100만분의 1초 사이에 어떤 일이 일어났는지를 알아내는 것’으로 ALICE 실험에서 주도하고 있고, 다른 하나는 ‘모든 물질에 질량을 부여하는 기능을 하는 신의 입자라 불리는 ' 힉스 보손(boson)을 찾아내는 것’으로 CMS와 ATLAS 실험에서 주도하고 있다. 이로부터 핵을 형성하는 강력한 힘이 어떻게 작용했고 기초적인 입자들이 어떻게 뭉치게 됐는지, 즉 우주를 구성하는 물질의 기원을 밝혀낼 수 있을 것으로 기대하고 있다. 물론 이건 크게 잡은 목표고[8] 실제로는 훨씬 더 범용적이다. 즉, 입자물리학에서 다루는 거의 모든 현상을 탐구하는 올라운드 플레이어인 셈. 다만 특정 영역을 집중적으로 탐구하고자 하면 그런 범용성이 오히려 부적절할 수 있다. 한편, 이미 LHC 건설 당시부터 아래 쿼크(bottom quark)와 이 쿼크를 포함한 중간자들, 즉 b-중간자(b-meson)들의 성질은 높은 관심을 받고 있었으며[9], 소위 b-physics라고 불리는 이 분야를 위한 특별한 검출기가 요구되었다. LHC의 또다른 검출기인 LHCb는 바로 이러한 목적을 위해 디자인되어 지어진 것이다.

물리학에서의 표준모델은 하나의 긴 수학공식이라고 할 수 있는데, 몇 가지 미묘한 문제들(계층성 문제 등) 때문에 초대칭성(supersymmetry)이라는 개념이 도입되었다. 최소 질량의 초대칭 입자(LSP; Lightest Supersymmetric Particle)은 또한 암흑물질의 좋은 후보가 되기 때문에 초대칭성이 존재하는지, 그리고 그 에너지 스케일은 어느 정도인지도 LHC가 밝혀낼 수수께끼 중 하나이다. 이 외에도 중성미자 질량 문제, 대통일 이론( 강한 상호작용+ 약한 상호작용+ 전자기력)의 모습은 어떤 것인지, 고에너지(특히 탑 쿼크) 입자에 관련된 상수나, 대칭성이 얼마나 깨져있는지 등등이 LHC의 관심사라고 할 수 있다. 이보다 더 상세한 목적은 아래 목적 문단을 참고하자.

CERN에선 컴퓨터 서버를 놓을 돈을 구하기보단, 최근 유행하는 그리드 컴퓨팅을 도입하여 전 세계 컴퓨팅 센터 및 물리학 연구소(및 자발적 지원자)들을 대상으로 LHC@HOME이란 프로젝트를 BOINC에서 돌리고 있다. 그러나 구 프로젝트는 버리고 LHC@Home 1.0이 가동 중이다. 만약 제대로 물밀듯이 밀려오는 작업을 보고 싶다면 ATLAS@Home을 이용하면 좋다. GPU 연산도 지원. 그런데 이건 ATLAS 이야기로, 예를 들어 CMS에서는 LHC@Home 대신 자체적인 그리드 망을 이용하는 중이다. 이것 역시 전 세계 컴퓨팅 센터 및 물리학 연구소들의 컴퓨팅 자원을 끌어다 쓴다.

3. 구조

3.1. 가속기


파일:shape_LHC.jpg
LHC의 모양 중 일부분[10]을 볼 수 있다.

파일:nj230233fig1.jpg
LHC을 역할 및 위치 별로 구획을 나눠 나타낸 그림
일반적으로 싱크로트론은 여러 구간을 가지는데, 크게 나누자면 가속하는 구간과 꺾는 구간, 그리고 빔 모양을 만드는 구간이 있다. 꺾는 구간과 빔 모양을 만드는 구간에 초전도 전자석이 배치되어 양성자 빔의 방향과 모양을 조절해 준다. 모양을 조절한다는 말이 이상하게 들릴지도 모르겠지만, 이것도 중요하다. 빔, 아니 더 정확하게 말하자면 양성자 한 덩어리(bunch)의 모양이 일정하게 유지되어야 충돌 시 상황이 일정하게 유지되고 가속이 용이해지기 때문이다.

실제로 LHC 안에서는 연속된 한 줄기 양성자 빔을 쏘는 것도 양성자 하나 하나를 쏘는 것도 아닌 양성자 여러 뭉치를 계속 뱅글뱅글 돌리는 식으로 작동한다. 그런데 안 그래도 확산으로 인하여 퍼질 게 분명한 입자들인데 거기다 같은 전하를 띠고 있는 양성자들이 엄청나게 작은 공간 안에 뭉쳐 있으니 그 모양이 금방 변해 버릴 것은 분명하다. 더군다나 방향이 꺾이는 과정에서도 덩어리의 모양이 크게 바뀐다. 이런 이유로 인해 특별히 모양을 유지해 주는 작업이 필요한 것이다. 이와는 별개로 덩어리 하나에 포함된 양성자들의 에너지가 똑같도록 조정하는 것도 해야 하고, 이것도 가속 구간이 아닌 다른 데에서 따로 해 준다. 한편 가속은 RF라는 방식을 쓰는데, 특정한 주기를 갖는 전자기파에 덩어리들을 실어서 에너지를 키우는 식으로 동작한다.

3.2. 검출기

그 거대함과 만들어지는 커다란 에너지 때문에 세간에는 가속기만 알려져 있으나 사실 검출기도 이에 못지 않게 중요하다. 양성자-양성자 충돌을 시켜서 얻어지는 결과를 충분히 잘 받아내기 위해 검출기 역시 매우 잘 설계 및 제작이 되어야 하며 각 검출기의 특성에 따라 어떤 방식으로 데이터를 분석할 전략을 세울 수 있기 때문이다. 사실 입자물리학계에서는 LHC 실험이라고 하기보단 ATLAS 실험, CMS 실험, LHCb 실험, ALICE 실험이라고 더 많이 부른다. 이는 테바트론, LEP 등 과거 검출기에도 똑같이 계속 적용되어 왔다.

ATLAS는 본진이라고 할 수 있는 메헝(Meyrin) 사이트 바로 옆에 있다. 같은 범용 검출기인 CMS는 교차검증 때문에 정반대 편에 위치해 있다. 덕분에 CMS 일하는 사람들은 쉬프트(shift) 서러 갈 때마다 울쌍인데, 보통 숙소를 CERN 본진인 메헝 사이트로부터 가까운 상제니푸이(Saint-Genis Pouilly)나 페흐네-볼테흐(Ferney-Voltaire)[11]에 잡기 때문. ALICE와 LHCb는 각각 상제니-푸이와 페흐네-볼테흐 근교에 자리 잡고 있다. 물론 이들 검출기들은 지하 깊숙한 곳에 묻혀 있기 때문에 건물 말고는 직접 보는 것이 어렵고 심지어 단지 안에 들어가는 것도 제한되어 있다.[12] 다행히 메인 빌딩 자체도 나름 멋있고 거기다 페인트로 각각의 검출기들을 멋지게 그려놨으니, 못 들어가는 사람들은 그걸 보면서라도 위안을 삼자.

3.2.1. ATLAS


파일:0803012_01-A4-at-144-dpi.jpg
A Toroidal LHC ApparatuS(도넛형 LHC 장치)
농담 아니고 저기서 HC를 제외한 나머지 대문자를 모아서 지은 이름이다. 입자물리 실험 장치들을 보면 이런 작명 센스가 유독 많다. 거의 10층짜리 건물 한 채에 이르는 어마어마한 크기를 자랑한다. 일반적인 목적(General purpose)을 위한 검출기, 즉 범용 검출기인데, 무슨 말이냐면 가속기 입자 물리 실험에서 할 수 있는 웬만한 주제를 커버할 수 있다는 뜻이다.

검출기들 중에서도 그나마 얼굴이 잘 비춰지는 녀석인데, 이름도 그렇고 이 검출기의 위치도 그렇고 심지어 충돌 이벤트 하나를 3D 그래픽으로 그려주는 것도 이쪽이 더 잘 해서 대중에게 더 많이 노출된다고.

3.2.2. CMS


파일:CMS_inner_structure.png
Compact Muon Solenoid(소형 뮤온 솔레노이드)
이름 그대로 좀 더 작고(Compact) 뮤온(Muon)을 더 잘 보는 검출기. ATLAS에 비하면 살짝 더 작으나 무게는 더 나간다고. 이 녀석도 범용 검출기이다. 범용 검출기가 두 대 있는 이유는 아무래도 교차 검증 때문. 그 때문인지 ATLAS가 있는 곳 정반대 편에 위치해 있다. 그래서 힉스 입자가 처음에 발견되었을 때에도 ATLAS와 CMS 둘 다의 결과가 같이 나왔었다.

그렇다고 해도 둘이 아예 똑같은 건 아니고 여러 모로 다른 모습을 볼 수 있는데, 대표적인 것 중 하나로 뮤온 검출기 파트의 크기. ATLAS와 비교해 보면 트랙커와 칼로리미터들이 왜소하다 싶을 정도로 뭔가 작아 보이는 반면에 뮤온 검출기 부분은 압도적인 크기를 자랑한다. 때문에 뮤온 검출에 있어서는 엄청난 수준. 사실 뮤온에 집착하는 이유 중 하나가 뭐냐면 그나마 볼 수 있는 입자들 중에 뮤온이 제일 깔끔하게 관측할 수 있는 입자이기 때문. 질량과 수명이 충분히 크고 길어서 모든 검출기 영역을 다 훑고 지나가며 그만큼 궤적이 길고 남기는 것도 많아 에너지와 운동량을 더 잘 잴 수 있기 때문. 더군다나 뮤온 검출기까지 도달할 수 있는 전하를 띤 입자가 사실 상 뮤온 하나 뿐인 것도 있고. CMS는 뮤온 검출에 더 스택을 많이 준 케이스라고 보면 되겠다. 물론 그렇다고 다른 입자들 검출이 소홀하면 안 되며, 실제로 트랙커, 칼로리미터의 성능 역시 굉장히 좋아서 연구하기에 충분한 수준. 다만 ATLAS에 비하면, 특히 HCAL(Hadron Calorimeter)는 좀 떨어진다... 그래도 어쨌든 중요한 발견은 다 할 수 있는 수준이라서 힉스 입자가 발견되었을 때라든가 뭔가 중대한 결과가 나오면 ATLAS와 항상 같이 그 결과가 발표되는 편이다.

파일:CMS_Slice.gif
CMS의 슬라이스 단면
어떤 입자가 검출기의 어디까지 갈 수 있는지를 보여준다.
특히 이 정보는 검출된 입자의 정체가 무엇인지 확인하는데 있어서 중요한 역할을 한다.
뮤온에 몰빵한 이유 중 하나가 뭐냐면 상당 수의 흥미로운 반응이 뮤온을 포함하고 있기 때문. 일단 특정 반응을 보려고 할 때 제일 먼저 보는 것 중 하나가 생성되는 렙톤(전자, 뮤온) 개수인 것만 봐도 그렇다. 대표적인 예가 H → ZZ → 4 muon.[13] 사실 양성자-양성자 충돌로 뮤온이 방출되는 케이스라면 뮤온을 전자로 바꾼 케이스도 거의 같은 수만큼 있긴 한데[14], 사실 전자를 잘 보는 것보다 뮤온을 잘 보는 게 더 깔끔하게 할 수 있어서 그런 것도 있다.

현재 우리나라의 수많은 대학교들이 KCMS라는 이름의 사업 아래 CMS와 협업을 진행하는 중에 있다. CMS로부터 관측되는 데이터들을 분석하는 것은 물론 CMS의 업그레이드를 위한 여러 가지 연구를 진행 중에 있다. 특히 2023년에 있을 LHC의 대대적인 업그레이드 때에 새로운 검출기들이 추가를 설치될 예정인데, 그 중 뮤온 검출기의 몇몇 파트의 핵심 부품 중 일부를 우리나라에서 제작하여 납품할 계획에 있으며, 이 파트를 위한 소프트웨어 개발 등에 있어서도 중요한 역할을 수행하고 있다.

3.2.3. ALICE


파일:alice2.jpg
A Large Ion Colliding Experiment(거대 이온 충돌 실험)
ATLAS와 똑같은 작명 센스로 지어진 이름을 가졌으며, 맨 앞의 A는 부정관사다. 이 쪽은 그 이름에 걸맞게 무거운 이온 충돌에 특화된 검출기다.

LHC의 홍보 문구 중 하나로 납과 같은 무거운 원자들의 핵을 부딪혀 빅뱅 이후 1초 후를 재현한다는 것이 있는데, 그 충돌 과정을 전문적으로 잡아내는 검출기이다. 다만 ALICE만 하는 것은 아니고 ATLAS와 CMS도 이 충돌로부터 나오는 걸 볼 수는 있어서 ATLAS와 CMS에서도 중이온을 돌리는 시즌에 검출기 켜 놓고 데이터를 받긴 하는데, ALICE가 여러모로 특화된 게 많아서 중이온과 관련된 중요한 결과는 ALICE에서 더 많이 나온다.

ATLAS가 칼로리미터, CMS가 뮤온에 스택을 잔뜩 올렸다면 ALICE는 트래커(tracker)에 좀 더 몰빵한 녀석이다. 트랙커는 충돌로부터 나온 입자들의 궤적을 맨 처음 받아들이는 검출기로 그러다 보니 빔 라인과 제일 가까운 영역에 자리잡고 있다. 전하를 가진 입자들의 궤적은 일차적으로 여기서 측정된다. 그런데 쿼크-글루온 플라즈마(quark-gluon plasma)로부터 생성되는 부산물들은 일단 양이 어마무시하게 많다. 원자보다 작은 입자들이 무더기로 쏟아지기 때문에 이들 하나하나 헤아리는 것이 보통 일이 아닌데, 가뜩이나 좁은[15] 트랙커 안에서 제한된 분해능을 가지고 입자들의 궤적을 최대한 많이 분류해야 하는 상황이니, ATLAS와 CMS 정도의 트랙커 만으로는 다소 버겁다. 그러다 보니 ALICE의 트랙커는 처음부터 ATLAS와 CMS와는 비교를 불허할 정도로 촘촘하고 정밀하다. 거기다 TPC(Time Projection Chamber), TRD(Transition Radiation Detector), TOF(Time Of Flight) 등의 도움을 받아 엄청난 수의 입자 궤적들을 하나하나 구분하는 걸 가능하도록 할 수 있다. 한마디로, 빅뱅 1초 후의 혼란스러운 상황을 제대로 들여다 보기 위해 스택을 몰빵한 검출기.

우리나라에서는 부산대학교, 인하대학교, 연세대학교, 세종대학교, 전북대학교, 강릉원주대학교, 충북대학교와 KISTI(한국과학기술정보연구원)가 KoALICE 실험 그룹 (한국 앨리스 실험팀) 으로 ALICE와 협업을 진행하는 중에 있다. KCMS와 더불어 한국-CERN 협력 사업의 큰 한 축을 담당하고 있으며 한국 핵물리학[16][17] 분야에서도 큰 부분을 차지하고 있다.

3.2.4. LHCb

이름 그대로 b쿼크( 보텀 쿼크)를 집중적으로 보기 위한 검출기. 이 녀석은 다른 세 검출기와 비교했을 때 다소 특이한 게, 입자-입자 충돌 실험이 아니라 입자-타겟 충돌 실험이다. 아무래도 검출기 모양도 그렇고 에너지 레벨을 보텀 쿼크 대량 생성에 맞추도록 하기 위한 것인 듯.

보텀 쿼크는 여러모로 신비로운 성질을 많이 가진 입자이다. 재밌는 것 중 하나가 보텀 쿼크가 포함된 메손(meson)의 수명이 꽤 길다는 것. 그래 봤자 광속으로 날아갔을 때 수 mm~수 cm에 불과하나, 질량에 비하면 굉장히 멀리 가는 수준. 사실 이 성질을 이용해서 검출된 어떤 입자가 보텀 쿼크에서 왔는지 안 왔는지 꽤 잘 판단할 수 있으며, ATLAS와 CMS에서는 이 성질을 아주 잘 써먹고 있다. 이러한 성질을 보다 더 잘 관찰하기 위한 것도 있고, 또한 해당 쿼크의 CP 위반(CP violation) 기여 정도를 보기 위한 것도 있고, 여러 모로 보텀 쿼크를 깊게 탐구하기 위한 실험이라고 볼 수 있다.

4. 연구 방식

4.1. 데이터 분석

LHC의 데이터를 이용해 어떤 방식으로 분석(Analysis)을 하는 지 대략적으로 소개하고자 한다. 여기서 힉스 입자 발견과 같은 결과들이 나온다. 다만 현대에 들어 입자물리학, 혹은 더 많은 분야들에서 수행하는 대다수의 실험들이 흔히 쓰는 방식이기도 하다. 따라서 이 섹션이 더 적절한 항목에 들어갈 수도 있을 것이다.

먼저 검출기로부터 받은 데이터로부터 어떤 입자들이 검출되었는가를 알아야 한다. 검출기가 내놓는 데이터는 그야말로 어디가 켜졌는지, 어느 구역에 에너지가 얼마나 박혔는지 정도 뿐이다. 잘 이해가 안 간다면 CMS 항목의 두번째 그림을 보자. 입자들의 궤적을 자세히 보면 군데군데 X자 표시가 되어 있거나 (트랙커) 뭔가 터진 것처럼 퍼져 있거나 (칼로리미터) 아니면 칸들이 켜져 있거나 (뮤온 검출기) 할 것이다. 검출기가 실제로 받는 데이터는 입자의 흔적, 즉 이들 X자 혹은 퍼진 에너지 혹은 켜진 구획이 어딘가 하는 정도이다. 실제 궤적은? 그런 거 없다. 그저 입자가 지나갔을 때 남겼을 저런 흔적들 뿐이다. 이것들을 가지고 정말로 입자가 지나갔는지, 지나갔다면 얼마의 운동량과 에너지 그리고 전하를 가지고 간 건지 재구성을 해야 한다. 비유하자면 범죄 현장에 남겨진 흔적들만 가지고 그 곳에서 무슨 일이 있었는지를 추리하는 것과 같은 일이다. 데이터를 받았으면 먼저 하는 일이 바로 이러한 재구성이다.

이게 쉬운 일이 절대 아니다. 입자가 한두 개 생기면 별로 어려운 일이 아닐 것이다. 하지만 반응이 일어났을 때 생기는 입자는 보통 엄청나게 많다.[18][19] 따라서 충돌이 일어났을 때 받는 데이터는 무수히 많은 신호들이 여기저기 흩뿌려진 모양으로 나타나게 될 것이다. 거기다 노이즈도 잔뜩 박혀 있을 것이다. 이걸 가지고 입자들의 경로, 에너지 등을 찾아내야 하는 것이다. 그리고 상당히 다양하고 복잡한 알고리즘들이 적용되어 이 혼파망에서 제일 가능성이 높은 궤적, 에너지 등을 찾아내어 입자들을 찾아내는 것이다. 검출기 성능이 좋은데다 수많은 물리학자들을 숫돌 삼아 알고리즘들을 하도 갈아댄 덕에 통계적으로 굉장히 믿을 만한 수준으로 입자들을 분별해 낸다. 주로 시뮬레이션으로부터 나온 모사 신호에 알고리즘을 적용한 결과와 옛날 실험들로부터 이미 잘 알려진, 그리고 엄청 많이 만들어낼 수 있는 반응들을 재현한 데이터에 알고리즘을 적용한 결과를 비교하는 식으로 알고리즘들이 잘 작동하는지, 그렇지 않으면 뭐가 문제인지 판단한다. 그렇게 해서 검출된 입자들이 뭔지 알아내는 것이다.

그런데 한 가지 주의할 게 있다. '검출'된 입자들이라고 했는데, 사실 직접 검출이 가능한 입자들은 생각보다 별로 없다는 것이다. 끽해야 광자, 전자, 뮤온, 파이온±[20], 케이온±, 중성 케이온[21], 양성자[22], 중성자 등등 10개 정도 밖에 없다. 실제로 표준 모형에서 나오는 기본 입자들 중에 검출기 등으로 '직접' 볼 수 있는 건 광자, 전자, 뮤온, 중성미자 정도 뿐이다. 쿼크와 글루온은 어차피 단독으로 못 보는데다 charm, bottom, top 쯤 되는 쿼크들이 포함된 강입자는 아무리 멀리 가도 검출기에 박히기 전에 다 터진다.[23] 더군다나 중성미자는 아예 안 보인다고 쳐도 상관 없을 정도로 반응을 안 한다.[24] 물론 힉스 입자도 절대 직접 못 본다. 다만 힉스 입자는 어떤 특별한 반응 방식을 통해 붕괴하는데, 힉스 입자가 붕괴해서 나올 것으로 여겨지는 충돌 이벤트들을 잘 모으면 이걸로부터 힉스 입자가 존재한다는 것을 밝힐 수 있다. 말하자면 스모킹 건을 찾아서 힉스 입자가 존재한다는 걸 밝힌다는 것이다. 힉스 입자 뿐만 아니라 LHC에서의 모든 실험적 결과들이 다 이런 식으로 얻어진 것이다. 바로 아래에 더 자세한 설명을 달아두었다.

파일:The-4-lepton-invariant-mass-distribution-in-the-CMS-experiment-clearly-showing-the-Higgs.png

이제 데이터 하나하나로부터 입자들을 구성해냈으면, 이걸로부터 충돌 시에 무슨 일이 있었는지 볼 차레다. 즉, 본격적으로 이론으로부터 얻어진 결과와 실험 데이터를 비교할 차례다. 당연한 이야기겠지만, 수식 놀음을 하는 거랑은 거리가 있는 일이다. 오히려 이미 만들어진 수식으로부터 얻어진 예측과 데이터를 비교하는 일을 많이 한다. 다만 입자 충돌에서 일어나는 현상들이 복잡하다 못해 지저분하기도 하고[25] 검출기의 구조가 매우 복잡하기도 해서 수식을 직접 계산해서 예측을 하는 건 한계가 있다. 대신에 이 수식들을 기반으로 해서 확률적 기반[26]을 통한 양자역학 & 검출기 시뮬레이션을 잔뜩 수행하고 이걸 이용해 예측 그래프를 만드는 것이다. 좀 더 직관적으로 (그리고 대강) 말해서 충분히 많은 수[27]의 가상 실험을 시뮬레이션으로 구현을 한 다음, 이걸 데이터랑 비교하는 식이다. 참고로 덧붙이자면, 이 시뮬레이션은 실제 실험을 거의 그대로 재현하는 급이다! 어느 정도냐면 시뮬레이션을 통해 검출기가 얻는 거의 가장 낮은 레벨의 데이터 포맷까지 재현한 다음, 이걸 마치 검출기에서 받은 진짜 데이터처럼 취급을 해서 검출된 입자들을 재구성하는 단계를 가진다. 이런 식으로 철저하게 예측을 수행하는 것이다. 한편, 실제로 위에 올린 힉스 입자 증거 중 하나를 보여주는 그래프를 보면 검은색 선과 점으로 표시된 데이터들이 있고, 그 나머지가 예측들인데, 이게 전부 시뮬레이션을 통해 얻어진 것들이다. 참고로 이러한 확률 기반 시뮬레이션을 보통 몬테카를로(Monte-Carlo; MC) 시뮬레이션이라고 부르고, 현장에서는 아예 이러한 예측 부분을 가리켜 MC라고 부르고 그 시뮬레이션으로부터 얻은 이벤트들을 MC 이벤트라고 부르는 경우가 많다.

이런 MC 이벤트들을 개개인이 만들 수도 있지만, 그건 지극히 제한적인 경우고, 보통 콜라보레이션에서 제공해 주는 MC 이벤트들을 가지고 예측을 얻어낸다. 안 그래도 용량 엄청 잡아 먹고 만드는 데에도 엄청난 연산량과 시간이 소요되는 게 MC 이벤트들인데 수많은 분석가들이 중구난방으로 만들게 하느니 차라리 중앙에서 일괄적으로 만들어 주고 제공하는 게 더 나으니까. 게다가 개인적으로 만든 것보다 그쪽 분야 전문가이 모여서 만든 것이 더 믿을 만한 것도 있고.[28][29] 그리고 설령 정말 타당한 이유가 있어서 개인이 만들겠다고 해도, 말했듯이 충분히 많은 이벤트를 만들기 위해 소요되는 시간과 비용이 워낙 막대하기 때문에 보통 엄두가 날 일이 아니다. 지금도 CERN에 있는 컴퓨터 센터는 물론이고 전 세계에 있는 수많은 클러스터 컴퓨터들이 열심히 MC 시뮬레이션을 돌리고 있는 중이다.

MC를 돌려서 데이터랑 같이 히스토그램을 그냥 그리기만 하면 되는 게 아니다. 물리적으로 관심이 있는 부분만 똑 떼내서 보는 걸 하는 것도 중요하다. 아니, 사실 이게 분석가들이 하는 일의 절반 이상이라고 봐도 좋다. 많은 이들이 이 작업을 가리켜 조각을 하는 것과 같다고 말하는데, 왜냐하면 어떤 변수들을 통해 쓸모 없는 부분과 쓸모 있는 부분을 구분하여 쓸모 없는 데이터와 MC를 쳐 내고 나머지만 취하는 걸 끝없이 반복하기 때문이다. 그 변수들은 관심 있는 입자들, 예컨대 뮤온이나 제트(jet) 등의 운동량, 에너지, 혹은 방향, 개수 등이 되며, 심지어 둘 이상의 입자들 간 사이각이라든가 다양한 변수들이 쓰인다. 분석가들은 다양한 변수들에 대한 그래프를 그린 다음, 그 그래프들 중에서 어디에서 신호(signal)와 배경 사건(background events)의 구분이 잘 되는가를 낱낱이 파악해 그 중에 구분을 잘 하는 변수들을 가져다 쓴다. 사실 여기에서 MC 시뮬레이션을 활용한 예측 기법이 빛을 발하는데, MC 이벤트들을 가지고 그래프들을 그리면 따로 계산을 할 필요 없이 신호와 배경 사건을 구분하는 것을 시각적으로 쉽게 할 수 있게 된다. 더군다나 곧 소개하겠지만 머신 러닝 기법을 쓰기에도 안성맞춤이고. 말했듯이, MC 이벤트들은 실제 검출기를 기반으로 해서 실제 실험을 엄청난 구현도로 가상 재현한 것이라 (적어도 배경 사건들의 예측이 담당 파트들에서 정확하다면[30]) MC에서 신호를 분리해내는 방법을 그대로 똑같이 실제 데이터에다 적용시키면 그게 곧 우리가 원하는 실제 신호가 될 것이니, 이걸 통해서 원하는 신호에 해당하는 실제 데이터들을 추려낼 수 있는 것이다. 위 힉스 입자 그래프로 다시 가 보자. 이 그래프도 사실 수많은 컷(cut)들이 적용되고 나서 살아님은 엄선(?)된 이벤트들만 보여주는 것이다. 못 해도 수십억 번의 유효 충돌이 있었을텐데 필요한 것들만 추리고 추려서 결국 힉스 입자의 증거로 보여지기 위해 마련된 데이터들의 개수는 끽해야 200개도 채 못 된다. 그마저도 위 그래프에 있는 것들을 그냥 다 합친 거지, 정말 신호 영역에 있는 (즉, 빨간 색 선이 도드라진 영역에 있는) 데이터 이벤트의 개수는 고작 (배경일 것 같은 애들 빼고) 고작 20개 정도 뿐이다.[31] 이런 식으로 입자물리학에서 분석이 진행되는 것이다.

다만 익숙한 변수들 만을 가지고 컷을 주는 방식은 그다지 만족스럽지 못할 수도 있다. 예를 들어 두 변수 x, y가 있다고 할 때 이 둘의 분포를 그린 결과로는 신호와 배경 사건이 잘 구분되지 않는 반면, [math(x^2 + y^2)]의 분포를 그리면 구분이 확연히 잘 될 수도 있다. 물리적 통찰을 통해 이런 조합을 찾을 수도 있겠지만, 아무래도 한계가 있을 수 밖에 없다. 심지어 변수가 3개를 넘어가는 순간 시각화도 불가능해져 더 이상의 분석이 어렵다. 이를 극복하기 위해 대두된 것이 바로 머신 러닝(machine learning) 기법이다. 이 기법을 활용하면 적절한 변수들의 조합을 통해[32] 신호와 배경 사건을 더 잘 구분해내는 방법을 찾을 수 있다. 사실 이 기법이 유행을 타기 훨씬 전부터 입자물리학자들은 이 기법을 잘 활용해 왔다. 물리학자들의 선구자적인 면을 볼 수 있는 대목 중 하나. 물론 딥러닝이 대두되고 나서는 딥러닝도 잘 써먹고 있고.

이제 신호들을 모았다고 해서 연구가 끝나는 것은 아니다. 모든 과학적 결과가 그렇듯, 원하는 값을 계산했으면 이 결과가 통계적으로 얼마나 믿을 만한 것인지도 정리해서 보여야 한다. 신호의 존재 유무, 예컨대 힉스 입자의 존재 유무라든가 아니면 초대칭 입자의 검출 유무를 결론지을 때 이 결과에 대한 신뢰도라든가, 아니면 특정 파라메터를 측정했을 때의 그 오차라든가 하는 것들을 보여야 한다. 이게 충분히 좋아야 좋은 결과가 되는 것이다. 결국 분석의 최대 관건 중 하나로 얼마나 신뢰도를 높일 수 있는가, 혹은 오차를 얼마나 줄일 수 있는가 하는 것이 있다. 신호의 개수를 최대한 많이 확보하되 배경 사건을 최대한 줄이는 것이 사실 이를 극대화하기 위한 것이다. 다시 위의 힉스 입자 그래프를 보면, 검은 점들이 데이터 포인트들이고 검은 선들이 데이터의 (통계) 오차인데, 이 오차가 너무 크다 못해 그 범위가 배경 사건까지 훌쩍 파고들면 정말 힉스 입자에 해당하는 이벤트가 생긴 건지 아닌지를 말하기가 더 어렵게 된다. 그런 이유로 어떻게 해서든 (물론 합리적이고 오류 없는 방식으로) 저 오차들을 줄이는 게 관건인 셈이다. 그 외에도 계통 오차(systematic uncertainty)를 줄이기 위해 갖은 노력을 해야 한다. MC 이벤트를 최대한 늘려야 하는 것도 사실 계통 오차를 줄이기 위한 한 방편이다. 그리고 검출기의 성능 역시 계통 오차에 직접적인 영향을 준다. 더군다나 MC 시뮬레이션 자체에도 부여된 파라메터들의 오차라든가 아니면 계산하는 방식, 아니면 아예 생성 프로그램[33] 자체를 바꿨을 때 나타나는 차이 같은 걸 통해 계통 오차가 나타나기도 한다. 그래서 데이터를 최대한 잘 받아내고 또 MC가 다양한 영역에서 얼마나 잘 맞춰지는가를 치밀하게 연구해야 한다. 다행히 이런 건 또 전문으로 하는 사람들이 있어서 이들이 내놓는 매뉴얼 대로 하는 식으로 상당 부분을 소화할 수 있으며, 심지어 자기와 비슷한 영역에서 분석을 수행한 사람들이 괜찮은 결과를 내놓으면 그걸 활용할 수도 있으니, 그렇게 고생스러운 건 아니다. 어쨌든 이러한 오차들을 최대한 줄이는 게 결국 입자물리 분석의 최대 관건 중 하나라고 말할 수 있겠다. 이걸 위해 통계학을 잘 알아야 하는 것은 물론 다양한 통계적 기법들도 활용할 줄 알아야 한다.

여기까지 읽었으면 느꼈겠지만 어쩐지 물리보다 컴퓨터 다루는 능력이 더 중요해 보일 수도 있는데, 사실 맞다. 지금도 입자실험물리 하는 사람들은 종종 자신이 물리학자인지 프로그래머인지 헷갈려 한다. 그런 이유로 입자물리를 하고 싶다면 물리 뿐만 아니라 프로그래밍, 특히 C++ 파이썬을 많이 공부해야 한다.[34] 아니, 하다 못해 물리는 물리학과에서 코스웤으로 체계적으로 배우기라도 하지, 프로그래밍은 몇몇 학교를 제외하면 잘 안 가르치기 때문에[35] 입자물리를 바라보고 진학할 생각이면 물리보다 프로그래밍을 먼저 배우는 편이 더 나을 것이다. 일하면서 프로그래밍을 배울 수 있겠지만 프로그래밍은 결국 들인 시간과 노력이 그대로 반영되므로 미리미리 배워두는 것이 훨씬 좋다.[36] 프로그래밍 언어만 이야기했는데, 사실 언어 뿐만 아니라 다소 고급스러워 보이는 컴퓨터 능력 역시 필요하다. 일단 주로 작업하는 공간은 리눅스, 특히 Scientific Linux 내지는 CentOS이다.[37] 그러다 보니 대부분의 작업을 CLI 혹은 TUI 환경에서 (원격으로) 하게 된다. 물론 코딩 작업은 vim/Emacs로 한다. 끽해야 ROOT[38]의 TBrowser나 TTreeViewer 같은 걸로 잠깐 히스토그램을 볼 때 쓰는 것 정도 빼면 정말로 해커들이나 쓸 법한 환경에서 일할 것이다. 보통 윈도우즈에서 GUI 환경으로 프로그래밍을 배우게 될텐데, 이러한 환경은 상당히 낯설 수도 있다. 막대한 수의 데이터를 다루는만큼 수많은 파일들을 다루게 될 것이고 끝없는 날 것의 데이터들과 수많은 반복명령들에 시달릴텐데, 낯선 환경에서의 이러한 작업은 사람 미치게 만들기 딱 좋지만 리눅스 환경에 익숙한 사람에게 이런 작업은 그리 어렵지 않을 것이다.[39][40]

4.2. 서비스 워크

그런데 이 모든 것들이 되려면 일단 가속기와 검출기가 제대로 돌아야 한다. 물론 수많은 테크니션들이 유지보수를 해 주지만 그래도 고급 인력인 물리학자들을 분석만 하고 놀고 먹게 할 수는 없는 건지 다양한 일들을 시킨다. 그렇다고 돈을 더 주는 대신, 충분한 분량의 일을 해내면 자기가 속한 콜라보레이션(ATLAS, CMS, ALICE, LHCb, TOTEM 등등)에서 발표하는 논문에 이름이 올라가게 된다. 이들 콜라보레이션에서 발표한 논문을 보면 뒷편에 엄청나게 많은 이름들이 적혀 있는데, 거기 있는 사람들이 전부 그 분량의 일을 해낸 사람들이다. 이걸 소위 authorship이라고 부르는데, 결국 서비스 워크(service work)는 이 authorship을 대가로 하는 일인 것이다. 지금도 세계 각지, 그리고 CERN 단지 내 수많은 물리학자들이 이 일에 몰두하는 중이다.

가속기와 검출기가 제대로 돌도록 하기 위해 일한다고 했는데, 기계 장치의 유지보수도 필요하지만 받아진 데이터를 분석하는 프로그램의 개발 역시 중요하다. 위에서 데이터에다 알고리즘들을 적용시켜 입자들을 재구성한다고 했는데, 이때 들어가는 알고리즘들과 그 코드들을 짜는 것, 그리고 그걸 테스트하는 것이 전부 이 서비스 워크로부터 이뤄진 것이다. 사실 이런 물리적인 내용들은 테크니션보다는 물리학자들에게 맡기는 게 더 적합하긴 하다. 그 외에도 시뮬레이션을 만들고 이게 실험을 제대로 구현한 게 맞는지, 안 맞으면 어떻게 고쳐야 할 지 같은 것도 이 과정에서 이루어진다. 좀 더 기계적인 일에도 투입되는데, 어차피 실험 물리학자라면 실험 장비도 잘 알아야 하므로 테크니션들과 같이 장비 생산, 테스트 및 업그레이드 작업을 하기도 한다. 예를 들어 한국의 CMS 연구진들은 뮤온 검출기 업그레이드 중 한 파트를, ALICE 연구진들은 트랙커 업그레이드 중 한 파트를 담당하여 부품 생산을 포함한 다양한 방식으로 기여하고 있으며, 한편으로는 이들 새로운 파트들의 성능 테스트 및 이를 위한 소프트웨어 개발 등을 도맡아 서비스워크를 진행한다. 실제로 CMS 콜라보레이션, ALICE 콜라보레이션 논문에 이름이 올라간 한국인들 중 상당수가 이 연구로 이름이 올라간 것이다.

5. 목적

이 기구를 통해 과학자들은 다음과 같은 결과를 얻기를 바라고 있다.
이렇게 새로운 물리에 대한 이야기가 가득하지만 한편으로는 현재 완성되었다고 볼 수 있는[42] 표준 모형을 검증하는 것도 LHC에서 보고자 하는 것 중 하나라고 볼 수 있다. 사실 에너지 영역에 따라 표준 모형이 그려주는 입자들 반응의 양상이 바뀐다. 에너지-산란단면적(cross section) 관계를 검증하는 게 그중 하나. 실제로 LHC의 에너지 출력(7~8 TeV, 13 TeV) 별로 관심 있는 반응의 산란단면적을 찍어두고 이를 표준 모형의 예측과 맞춰보는 플롯을 쉽게 찾아볼 수 있다. 그리고 투입되는 에너지에 따라 반응의 세기가 달라지는 등 복잡한 양상을 갖고 있기에 충돌 에너지가 바뀔 때마다 이미 분석된 반응을 다시 분석하곤 한다. 물론 그 이면에는 표준 모형의 예측과 실제 실험 결과가 안 맞는 걸 찾아서 표준 모형 너머의 새로운 물리를 보려고 하는 목적도 있긴 하고 사실 이게 표면적인 주요 이유에 들어가기도 하지만. 2018년에 이르기까지 새로운 물리에 대한 뚜렷한 단서가 아직 안 나와서 이젠 다들 표준 모형을 검증하는 게 주 목표라고.

물론 이렇게 말하면 섭섭할 수도 있는 게, 표준 모형이 완성되었고 아무리 기다려도 표준 모형 너머의 무언가에 대한 단서가 LHC로부터 나오지 않았다지만[43] 그렇다고 우리가 표준 모형을 제대로 이해하고 있다고 말할 수는 없기 때문이다. 아직 충분히 정밀하게 측정이 안 된 변수들이 많기도 하고. 게다가 QCD process와 같이 표준 모형의 동역학을 적당히 근사시켜 모델을 만들 수밖에 없는 영역이 있는데[44] 엄청나게 많고 복잡한 연구를 통해 이 모델들을 상당히 개선시켰지만 여전히 안 맞는 게 많다. 마치 슈뢰딩거 방정식을 안다고 모든 고체의 물성을 다 완벽하게 알 수 있는 게 아니고 그 위에 또 적당한 근사를 통한 모델을 세우고, 그 모델이 또 안 맞는 게 많으며 그래서 슈뢰딩거 방정식이 발표되고 거의 100년이 다 되었음에도 불구하고 여전히 물성에 대한 연구가 활발한 것처럼, 표준 모형 자체에 (아직까지) 의심의 여지가 없다지만 아직 우리가 아는 건 많지 않다고 할 수 있는 것이다. 실제로 표준 모형이 예측한 입자들 중에 아직까지 발견 안 된 것들도 많다. 2015년에 발견된 펜타쿼크가 그 예시 중 하나였다.

6. 현황 및 업적

CERN에서 테스트 차원에서 입자 하나씩만 쏘는 실험을 현지 시각으로 2008년 9월 10일 오전 9시 38분에 시작했고 10시 20분 무사히 실험을 마쳤다. 다만 2008년 9월 20일, 고장이 나서 두 달간 가동이 멈췄다. 원인은 전기적 접촉 불량 → 온도 상승 → 자석의 초전도성 상실 → 엄청난 양의 전류[45]가 물리적 힘으로 작용 → 진공 sealing 손상 → 냉각재 손실(폭발) 뻥! → 뻐버벙!!

2009년 11월에는 냉각 중 온도 상승 사고가 발생하여 문제 원인을 알아보니 비둘기가 물어온 것으로 추정되는 바게트 조각이 실험기로 떨어져서였다고 한다.

그 외에도 크고 작은 문제들이 발견돼서 실제로 작동을 개시한 건 2010년 3월 30일이였다. 그리고 당연히 아무 일도 일어나지 않았다.

그런데 가동을 시작한 후 정말 아무 일도 일어나지 않아서 전 세계 물리학자들의, 특히 수십 년간 초대칭 이론을 연구해온 학자들의 애간장을 태웠다. 초대칭 이론이 맞는다면 여러 초입자(superpartner)들의 발견 소식이 들려와야 했는데 너무나 잠잠했기 때문이다. 2011년 2월 28일에는 결국 원래 예측된 에너지 범위에서는 초입자가 나타나지 않는 것으로 결론을 내렸고 그 후 더 높은 에너지 범위에서 다시 탐색을 계속할 예정이라고 발표했다. 이것만으로도 이미 초대칭 이론[46]은 수정이 불가피하며, 만약 초입자들이 계속 발견되지 않는다면 초대칭 이론은 폐기될지도 모를 위기에 처했다.

초기에는 아무 소식이 없었으나, 2011년 12월 7일, 힉스 입자가 125 기가전자볼트 즈음에서 발견되었단 설레발적인 루머가 나왔다. 7일 것도 좀 의외였는데, LHC최대 출력인 7 테라전자볼트가 아닌 125 기가전자볼트 즈음 ATLAS에서 발견되었다는 것. 사실 이 정도면 테바트론의 최대출력 이내인데 정작 페르미랩에서 이제까지 발견하지 못했다는 것.[47] 그리고 2011년 9월, 페르미랩에서는 입자가속기 테바트론의 운행을 28년 만에 중단하기로 결정했다. LHC보다 에너지 수준이 낮아서 새로운 발견이 나올 가능성이 별로 없다는 점이 크게 작용했다.

다만 이는 페르미랩에서 연구가 제대로 되지 않았다는 의미는 아니다. 사실 테바트론은 LHC보다 오히려 힉스 입자를 발견하기 쉬운 유형의 가속기이며, 실제로 페르미랩에서의 실험결과를 분석해도 힉스 입자의 존재를 뒷받침하는 결과를 얻어낼 수 있었고 힉스입자 발표에서도 페르미랩의 결과도 힉스입자의 존재를 뒷받침한다는 언급이 나왔다. 문제는 힉스 입자의 붕괴 과정은 다른 현상 내지는 실험 과정의 노이즈와 구별하기 어렵기 때문에 상당히 많은 실험결과와 통계적 분석 기법을 필요로 하는데, 테바트론의 에너지 수준과 휘도(luminosity)[48]로는 도저히 힉스 입자의 존재를 노이즈와 확실하게 분별할 수 있을 정도의 결과를 얻어낼 수 없었던 점이다. 즉 힉스입자의 존재를 확인한 상태에서 분석하면 페르미랩의 결과도 힉스입자의 존재를 뒷받침하는 것을 알 수 있지만 페르미랩의 결과만으로는 힉스입자의 존재나 성질을 얻어내기는 무리였다는 것이다.

2011년 12월 14일에는 CERN 웹캐스트를 통해 '존재한다는 증거가 발견되었다'는 내용이 발표되었으며, 2012년 7월 4일 힉스입자로 추정되는 소립자를 발견[49]했다고 공식으로 발표했다. 결국 2013년 3월 14일 힉스입자 발견 사실이 인정받았다. 이 발표로 현재의 표준 모형에 대대적인 수정이나 완전히 새로운 모델의 필요성은 거론되지 않게 되었다. 그리고 처음 힉스 입자의 필요성을 주장한 피터 힉스도 2013년 노벨상을 탈 수 있었다.

2009~2013년 2월 동안의 작동 기간을 run 1이라고 부르는데, 이 기간 동안 7 TeV의 에너지로 실험을 진행하여 이 환경에서 볼 수 있는 다양한 물리적 현상들을 관측하였다. 특이 사항으로 2012년에 8 TeV로 에너지를 약간 올려서 실험을 진행하였다. 사실 에너지 레벨(7 TeV, 8 TeV, 13 TeV, 14 TeV)을 다르게 해서 실험하는 것도 중요한데, 들어간 에너지가 얼마냐에 따라 물리 현상들의 양상이 달라지며 (예를 들어 탑 쿼크 쌍이 생기는 총 이벤트 개수) 이걸 확인하는 것 역시 표준 모형을 검증하는 동시에 표준 모형 너머의 현상을 보기 위한 시도이기도 하다. 바로 이 기간 동안에 힉스 입자 발견이 이루어졌다. 한편 매해마다 마지막 한 달 동안 양성자-양성자 충돌이 아닌 납-납 충돌 실험과 같은 중이온 충돌 실험이 진행되었으며, 이건 run 2에서도 똑같이 수행되었다.

2013~2015 초 동안 LS (Long Shutdown)[50] 1에 돌입했으며 run 2를 위한 업그레이드가 진행되었다.

2015에 작동이 개시되었으며, 이때부터 2018년까지의 작동 기간을 run 2라고 부른다. 에너지는 13 TeV. 다만 2015년 동안의 데이터는 보통 별개로 치는데, 2016년도부터 받은 데이터와는 환경이 다소 다른 탓인 듯. 데이터 수도 2016년도에 받은 양에 비하면 턱없이 적다. 다만 2016년도부터는 휘도도 올리는 등 본격적으로 run 2 가동을 시작하여 엄청난 양의 데이터를 받았다. 위에서 밝혔듯이 2016년도 데이터만 가지고도 테바트론이 9년 동안 받은 데이터의 3배를 받았으니. 그리고 2017년도, 2018년도에도 그보다 좀 더 많은 데이터들을 받았다. 이렇게 해서 총 140 fb-1[51], 혹은 1016 번의 양성자-양성자 충돌에 달하는 막대한 데이터를 얻었다. 한편 위에서 밝힌 대로 매해 말마다 한 달 동안 중이온 충돌 실험도 진행하였다.

2018년 12월 초까지 중이온 충돌 실험을 한 것을 끝으로 run 2가 끝나고 LS 2 기간에 돌입하였으며 2년 동안(2019~2020)의 업그레이드 기간을 가졌다. 해당 기간에 많은 검출기 파트들이 추가되었다. 2022년에 4년 동안의 run 3를 시작했다.

2026년부터 3년 동안 LS 3 기간을 가진 다음, 2029년 초 즈음부터 페이즈(phase) 2, 혹은 HL(High-Luminosity)-LHC 기간에 돌입하여 전보다 같은 기간 동안 수십~수백 배나 훨씬 더 많은 데이터를 받는 실험을 할 것이다. 여러 희귀 현상들, 예를 들어 힉스 입자가 뮤온 두 개 혹은 전자 두 개로 붕괴하는 것을 이 기간 동안 보려고 한다.[52] 물론 더 많은 데이터를 통해 표준 모형 너머의 무언가를 찾는 것도 집중적으로 연구될 것이다.

7. 유사과학론자의 떡밥

실험 도중 블랙홀의 생성으로 지구가 소멸할 것이라는 유사과학끼가 넘치는 지구멸망설이 제기되고 있고, 일부 가짜 과학자들(과 컴퓨터 그래픽 장인들)이 그럴듯하게 동영상도 만들며 낚시질을 일삼고 있다. 심지어 모 신문사에서는 LHC가 미니블랙홀을 만들기 위한 것이라고 오보를 내기도 했다. 실험을 중지 해야 한다는 소송이 걸리기도 했으나 실험 측은 '실험을 통해 만들어지는 입자 에너지로 미니 블랙홀이 생성된다면, 천체관측으로 이미 수많은 미니 블랙홀들을 발견했을 것이다'라고 대응하였다. 무엇보다도 지구로 날아오는 우주선 중에는 LHC가 만들 수 있는 에너지의 천만 배를 넘어가는 에너지를 가진 것들이 심심치 않게 목격되지만, 지구는 여전히 멀쩡하다.[53] 존 티토의 예언에서 언급되기도 하였다.

또한 한 연구원이 하프라이프 시리즈의 주인공인 고든 프리맨을 닮아 본 실험에 우려(...)를 증폭시켰다. 하필 하프라이프란 게임 자체가 저런 초대형 실험의 실패로(공간이동 실험) 외계인이 침공한다는 내용이다. 문제의 사진에 찍힌 저 고든 프리맨을 닮은 사람도 그 사실을 주워들었는지, 2008년 가을 몸소 CERN의 연구소 앞에서 쇠지렛대를 들고 인증을 하는 팬 서비스를 감행하였다. 참조

참고로 다른 사진들 보면 위의 주인공 고든 프리맨 말고도 블랙 메사 연구소의 다른 캐릭터들( 아이작 클라이너, 일라이 밴스, 월리스 브린)과 게임 내 세계관에 중요한 역할을 하는 캐릭터 G맨도 같이 보인다.
파일:hl_lhc.png

8. 기타

9. 외부 링크



[1] 이 우주선은 날아다니는 우주선이 아니다. 'Cosmic Ray', 즉 우주로부터 오는 방출선(혹은 방사선)이다. [2] 하지만 이 정도 깊이까지 파고들어 가는 뮤온 입자들이 있다. 빔이 돌지 않아도 검출기를 켜놓으면 우주로부터 날아와서 검출기를 지나가는 뮤온을 자주 잡을 수 있을 정도. 워낙 오래 살고 투과를 잘 하는 뮤온이라 어쩔 수 없겠지만, 물리학자들은 오히려 이 점을 이용하기도 한다. 빔 가동 전 이 뮤온들을 잡는 것으로 검출기의 성능을 점검하는 것이다. [3] 가동될 때에는 무려 1.9 K(-271.3 ℃)까지 내려간다. 우주의 평균 온도보다 낮은 온도다. 지상의 저온 실험실에선 1.9 K보다 더 낮은 온도를 만들 수 있기는 하다. [4] 미국 RHIC에서도 동일한 방식의 실험을 수행하고 있는데, 여기는 LHC보다 에너지대가 낮다든지, 납 원자핵 대신 금 원자핵을 쓴다든지 등의 차이점이 있다. [5] 그러고 보면 업 쿼크 두 개 질량(대략 2.3 MeV)과 다운 쿼크 질량(대략 4.8 MeV) 하나를 합친 값은 양성자 하나의 질량(938 MeV)보다 턱없이 작다. 나머지 질량은 글루온으로부터 온다. 글루온 질량이 0이지 않냐고? 상대성 이론에 따르면 여러 입자가 있는 시스템의 질량을 구하는 건 단순히 입자들의 질량을 더하는 방식이 아니라 전체 에너지, 전체 운동량을 같이 계산에 넣어야 얻을 수 있는 것이다. 자세한 내용은 생략하겠지만 그런 이유로 글루온이 쿼크보다 훨씬 더 많은 셈. 실제로 관측된 parton distribution function을 봐도 그렇다. [6] 참고로 한국에서는 KISTI가 CMS, ALICE와 협업을 하면서 막대한 전산 처리와 데이터 저장을 지원해 주고 있다. 이를 위해 가동 중인 슈퍼컴퓨터로 우리나라의 입자물리학자들이 활발한 연구를 진행하는 중에 있다. 그 외에도 경북대, 서울시립대 등 여러 대학에서 운영하는 슈퍼컴퓨터도 한몫 하는 중이다. [7] 휘도(luminosity)는 면적밀도 단위로 나타낼 수 있는데, 여기서 1 b = 10-24 cm2이다. 물론 f는 femto로 10-15. 즉, 36 fb-1 = 3.6 × 1040 cm-2이다. [8] 사실 상 펀딩과 대중적인 이미지를 위한 목표라고 보면 된다 [9] b-중간자와 CP 대칭성 붕괴와의 연관성, b-중간자의 희귀 붕괴 탐색 등으로 인한 것이다. [10] 배율 25000부터 볼 수 있다. 그런데 이보다 더 크게 보면 LHC의 원래 모양 대신 반듯한 원을 그린다. [11] 캉디드로 유명한 그 볼테르 맞다. 볼테르가 오랫동안 머물며 살았던 작은 도시로, 그로 인해 나중에 도시 이름 뒤에 지금처럼 볼테르 이름이 붙게 된 것이다. 볼테르의 동상이 세워져 있다. 다만 현지 발음으로 R을 '흐' 비슷하게 발음한다는 것을 고려해 표기하였다. [12] 어느 정도냐면 CERN ID 카드를 소지하고 있는 사람도 예를 들어 CMS 단지에 들어가고 싶으면 따로 허가를 받아야 들어 갈 수 있다. [13] 여기서 4개의 뮤온 중 2개는 반뮤온이다. [14] 뮤온의 질량마저 낮아 보일 정도로 높은 에너지에서 W와 Z가 전자-중성미자로 붕괴될 확률과 뮤온-중성미자로 붕괴될 확률은 거의 같다. [15] 좁으면 좁을 수록 입자들의 궤적이 겹치는 정도가 심해 여러 입자들의 궤적을 제대로 분별하기가 힘들다. [16] 1950~60년대부터 입자물리학과 핵물리학의 분과가 이루어지기 시작했다. [17] 고에너지 핵물리학 분야 [18] 사실 이러한 복잡함의 대부분의 쿼크나 글루온으로부터 온다. 이 녀석들(링크된 그림에서 빨간색, 파란색, 보라색 직선 및 용수철 모양 선들, 특히 용수철 모양은 글루온)은 결코 단독으로 보여질 수 없고 반드시 강입자(링크된 그림에서 녹색 동그라미들)로만 검출이 되어야 하는데, 이 과정으로부터 생겨나는 강입자의 개수가 보통 많다. 더군다나 양성자-양성자 충돌에서 양성자 전부가 반응에 참여하지 않기 때문에 상당 부분이 따로 떨어져 날아가는 것(링크된 그림에서 보라색 타원으로부터 생성된 것들)도 있어서 상황이 한층 더 복잡해진다. [19] 더군다나 이 그림 상에서는 안 나타나는데, 사실 양성자 덩어리와 양성자 덩어리를 충돌시키면 양성자 하나만 반응하지 않고 여러 개가 반응할 때가 많다. 그래야 원하는 반응을 더 많이 얻어낼 수 있는데, 대신에 충돌로부터 나오는 입자가 훨씬 더 많이 나오게 된다. [20] 중성 파이온의 수명은 엄청나게 짧다. [21] 물론 K-Long이다. [22] 굉장히 무거운 중입자가 생성되었을 때 이게 양성자나 중성자로 붕괴할 확률이 꽤 크다. 가속기에서 날아온 양성자와는 다르다. [23] 단 bottom이 포함된 강입자는 좀 특이하다. 좀 멀리 가서 터지는 특성이 있다. 그래 봐야 검출기의 가장 최중심부보다 한참 안 쪽이긴 하지만 검출기들이 입자들의 경로를 잘 추적하면 양성자-양성자 충돌 지점보다 좀 벗어난 곳에서 터져 생긴 입자들을 찾기도 한다. 이렇게 터져서 나온 입자들의 뭉치를 b-제트(jet)이라고 부르며, 이름이 따로 붙을 만큼 굉장히 중요한 녀석으로 분석에서 요긴하게 쓰인다. [24] 이렇게 검출기에 안 잡히는 입자가 생기면 전체 운동량(특히 x, y축) 합이 0이 안 되게 된다. 이 차이를 가리켜 MET(Missing ET; 여기서 ET는 Transverse Energy로 보통 x, y축 운동량을 말한다. (왜 운동량이 아니라 에너지라고 하는 지는 신경쓰지 말자)라고 부르는데, 이것도 굉장히 중요한 대상 중 하나이다. 실제로 SUSY에서 예견하는 입자들 중에는 안정하지만 중력 외에 아무런 상호작용도 안 하는 입자가 있어서 이 MET의 분포를 통해 SUSY를 테스트하는 방법도 있다. [25] 주로 jet 같은 QCD 반응을 모사하는 게 매우 더럽다. 그에 못지 않게 pile-up을 모사하는 것도 많이 더럽고. [26] 결국 양자역학적 반응들이기 때문에 확률적으로 할 수 밖에 없다 [27] 단, 실제 데이터로 얻은 것보다 배로 더 많은 횟수이어야 한다. 언뜻 이상하게 들릴 수 있지만 어차피 확률 분포를 구하는 것인 이상 실제 개수와 같을 필요는 없으니까 괜찮다. 오히려 확률 분포 그 자체의 '오차'를 줄이기 위해서라도 그 수가 많을 수록 좋은 것이다. 어차피 확률 분포인 이상, 적당히 정규화를 다시 해서 (전문적으로, 휘도(luminosity)와 산란 단면적(cross section)을 곱한 값이 예측되는 이벤트 개수일텐데, 전체 이벤트 개수가 이거랑 같도록 정규화를 하는 것이다) 데이터랑 비교를 할 수 있는 것이다. [28] 워낙 규모가 큰 실험이다보니 분업화가 잘 되어 있다. [29] 그리고 중요한 게, 해당 실험(예컨대 ATLAS, CMS)에서 나오는 결과는 분석한 사람 이름으로 발표되는 게 아니다. 그 실험 이름이 내걸리고 발표되게 된다. 예를 들어 CMS 검출기에서 얻은 데이터로 분석을 해서 논문을 쓰게 되면 그 논문 저자명은 분석가 이름이 아닌 The CMS Collaboration으로 나오게 된다는 것이다. 즉, 단체의 이름을 걸고 결과를 내는 것이다. 그러다 보니 분석을 하든 서비스워크를 하든 뭘 하든 사람들이 대충 넘어 가는 법 없이 나온 결과들을 철저하리만치 따지고 든다. 그러다 보니 공인된 것이 아닌 것을 쓰는 건 불가항력적이고 타당한 이유가 있지 않는 한 (아니, 그런 이유가 있어도 설득하자면) 매우 피곤한 일이 된다. 이런 상황이니 당연히 공인된 것을 다들 쓰게 되는 것이다. [30] 이걸 따로 밝히는 작업이 필요하다. 소위 validation이라고 불리는 작업인데, 최종 결과를 내놓기 앞서 반드시 수행되어야 하는 작업이다. 심지어 최종 결과를 보여주는 그래프에서도 어느 정도 보여질 필요가 있는데, 예를 들어 위의 힉스 입자 증거 그래프를 보면 126 GeV 근처만 사실 신호 영역인데 반해 그보다 더 넓은 영역의 MC 및 데이터를 그리고 있는 것을 볼 수 있다. 일종의 신뢰도를 높여주는 방식. [31] 물론 전체 데이터에서 실제 힉스 입자가 생겨서 4개 렙톤으로 봉괴된 경우는 훨씬 많을 것이다. 다만 배경 사건이랑 구분하기가 어려워 어쩔 수 없이 대부분 버려진 것이다. 사실 배경 사건을 최대한 많이 줄이되 신호를 최대한 많이 살리는 것이 분석에 있어서 최대 관건 중 하나이다. [32] 더 자세하게 말하자면 변수들이 이루는 다차원 공간에서 신호와 배경 사건이 잘 구분되는 구분법을 찾아낸 다음, 이걸 한 개 혹은 여러 변수들로 정리하는 것이다. [33] 예를 들어 (간단하게 말해서) 제트를 만드는 파트를 담당하는 프로그램이 여럿 있는데 (Pythia, Herwig, Sherpa 등), 이걸 교체했을 때 어떤 차이가 나는가를 보는 것이다. [34] 물론 C++로 연산량이 많이 필요한 코어 부분을 짜는 동시에 파이썬으로 이 코어 부분들을 조합함과 동시에 인터페이스를 구성하도록 하는 전형적인 방식으로 일을 하게 될 것이다. 그래도 툴들이 많이 발전했고 지금도 계속 발전하고 있어서 파이썬만 알아도 많은 부분들이 커버된다. 하지만 여전히 많은 부분들을 C/C++로 짜야 하는 걸 생각하면 (특히 아래의 서비스워크를 하려면 필수다) 어느 쪽도 소홀할 수는 없다. 그래도 언어 하나를 제대로 파고 나서 다른 언어를 배우는 건 그다지 어려운 일이 아니니 너무 걱정하지는 말자. [35] 사실 요즘 이공계열이면 이제 프로그래밍이 필수처럼 되어 가고 있긴 하지만. [36] 예를 들어 남이 짠 코드를 읽고 해석하는 능력이라든가 코드 재사용을 염두에 둔 코딩 기법 및 디자인 등을 잘 숙지하고 있지 못한다면 여러분의 작업은 한없이 늘어질 것이고 한없이 진창으로 빠져들 것이다. 그리고 이런 건 결국 공부와 경험의 양으로 결정된다. [37] 문서를 보면 알겠지만 둘다 레드햇 리눅스 기반이라 하나에 익숙해지면 나머지 하나에 익숙해지는 건 일도 아니다. 그런데 이건 시스템 관리자 입장이고 시스템에 손댈 일 없는 그냥 물리학자들에겐 레드햇 기반이나 데비안 기반이나 거기서 거기일 것이다. [38] 입자물리에 특화된 통계분석 툴로, 히스토그램을 보는 것은 물론 자료를 분석하는 등의 어지간한 작업은 거의 다 ROOT 기반으로 진행한다. [39] 그냥 ls, cd 정도만 할 줄 아는 걸로는 턱없이 부족하다. 예를 들어 sed, awk 같은 명령어 등을 자유자재로 다룰 수 있어야 한다. 쉘 스크립트에도 능숙하면 좋다. 다만 파이썬으로 어느 정도 대체 가능한 영역이긴 하다. [40] 거꾸로 말하자면 리눅스 환경이 아무래도 거대 실험의 막대한 데이터를 다루는 데 있어서 더할 나위 없는 환경임을 짐작할 수 있을 것이다. 실제로 다른 입자물리 실험이라든가 천체물리, 혹은 막대한 계산이 요구되는 계산물리 분야에서 리눅스 환경은 사실 상 필수이다. [41] 실험을 통해 Lund model과 같은 하드론 생성 모형이 올바른지 검증할 것이다. [42] 사실 힉스 입자 발견 전에도 정황 상 이미 완성되어 있다고 굳게 믿어진 상태였다. 힉스 입자가 뜻밖에도 낮은 에너지 영역에서 튀어나온 게 의아할 뿐. [43] 물론 중성미자 질량 문제, 계층 문제, 암흑 물질과 암흑에너지 문제, 사라진 반물질 문제 등등 표준 모형이 부족하다고 지적하는 다른 영역들의 문제가 너무 많기 때문에 여전히 이를 위한 단서를 찾으려고 하는 거고. [44] 쿼크들과 글루온들은 색가둠(Color confinement)에 의하여 절대 단독으로 관측되지 않는다. 이러한 성질은 쿼크들과 글루온들이 반드시 강입자(hadron)로 변하도록 하는데, 그 양상이 너무 복잡하고 심지어 섭동 이론으로 기술할 수도 없는 영역이 되어 버리는 탓에 그 예측이 사실상 어렵다. 그래서 적당한 근사를 통해 모델을 세워서 탐구할 수밖에 없고, 실제로 이 영역의 관련 모델은 꽤 많다. 덧붙여서 그 이전 단계에서 쿼크들과 글루온들이 생성되는 과정 역시 쉽게 계산될 수 있는 부분이 아니며 적당한 근사와 그 근사들을 한데 이어붙이는 작업을 통해 예측을 시도한다. [45] 초전도 자석을 도배했기 때문에 그냥 내부에 돌고 있는 순수한 전기 에너지만 해도 장난이 아니다. [46] 가장 간단한 형태. [47] 사실, 테바트론이 똑같이 양성자-양성자 충돌 실험을 1 TeV(질량중심 에너지)크기로 했다 하더라도, 입자가 반응하는데 사용하는 에너지를 1 TeV만큼 가져가는 일은 일어나지 않는다. 양성자 내에는 업 쿼크이 두개 다운 쿼그가 한 개 있다. 그뿐만이 아니라 양성자 속에 담긴 엄청나게 많은 수의 글루온들도 있다. (사실 글루온이 양성자의 대부분을 차지한다고 해도 과언이 아니다.) 여기에 엄청난 속도로 쿼크들로 이루어진 방울들이 생겨났다 사라져서 이것들이 모두 0.5 TeV를 사이좋게 나눠먹는다. 때문에, 힉스가 발견되기 위한 최저 에너지 125 GeV보다 큰 에너지를 가지는 충돌이 상대적으로 매우 적어서 보았더라도 배경사건이구나 하고 치부 할 가능성이 생긴다. 발견당시 LHC에서조차 (스핀이 0인지 아닌지 판단하기위해) 틀림없이 확실한 힉스 발견 사건개수를 가려봤을 때 딸랑 12개였다는 것을 고려하면, 테바트론에서 발견하지 못했다는 것도 어떤 의미로는 당연하다고도 볼 수 있다. [48] 에너지 수준과 더불어 테바트론이 불리한 큰 이유 중 하나. LHC는 양성자-양성자 충돌을 수행하는 것으로 두 입자 모두 흔하디 흔한 양성자인 반면에 테바트론은 양성자-반양성자 충돌로 일단 한 쪽이 구하기 어려운 반양성자이다. 때문에 테바트론에서 1~2년 동안 어렵사리 모은 데이터량을 LHC는 한 달 내에 가뿐히 받을 수 있다. [49] 엄밀히 말하자면 힉스 입자를 발견한 게 아니라 힉스 입자가 붕괴되는 것 같은 붕괴현상을 발견했다. 광자 2개로 붕괴한 듯. 후에 해당 입자의 스핀 등을 분석하는 등 추가적인 연구가 있고 나서야 힉스 입자로 인정받을 수 있었다. [50] 이름으로부터 짐작할 수 있듯이 short shutdown 역시 있다. 이건 매년 말마다 점검 차원으로 가진다. [51] 실제로 처리된 데이터를 기준으로 하였으며, ATLAS, CMS 둘 다에서 각각 수집한 데이터 양은 다소 다르나 둘 다 대략 140 fb-1이다. [52] 참고로 2020 ICHEP에서 run 2 데이터를 모두 들여다 본 결과 3 sigma 수준으로 힉스 입자가 뮤온 두 개로 붕괴되는 증거를 포착하긴 했다. 우리나라 연구진도 이 분석에 많은 힘을 보탰다. HL-LHC에서 이를 확실히 관측할 수 있으리라고 기대받는 상황이다. [53] 사실 이 떡밥은 무려 몇 십 년 전부터 당시 최대 에너지의 입자 가속기가 만들어질 때마다 끈질기게 재등장한다. 조심해서 나쁠 건 없지만 좀 지겹다. [54] 참고로 이 값은 양자역학 양자전기동역학에서 가장 중요한 상수 중 하나인 미세구조상수 [math( \alpha = {e^2 \over 4 \pi \epsilon_0 \hbar c} \sim {1 \over 137} )]의 역수이다.