노화 연구는 2000년대부터 본격화되었으며, 세포 수준에서 개체 수준의 연구로 확장되어 왔다.
텔로머레이즈 연구를 시작으로 최근에는 야마나카 인자 발현을 조절함으로써 역노화의 가능성이 제기되기 시작하였다.
이러한 시도들을 포함하여 노화세포 제거, 젊은 피 수혈, 세포 재프로그래밍 등 다양한 방향으로 역노화 연구가 이루어지고 있다.
그러나 특정 세포 및 조직 수준에서 발생하는 역노화가 개체 수준까지 적용될지는지에 대해서는 여전히 의견이 분분하다.
역노화 과정에서 비정상적인 세포분열로 암과 같은 질병을 초래할 수 있다는 우려도 존재한다. 그럼에도 역노화 연구는 고령화 문제 해결과 건강 수명 연장에 중요한 도전 과제이다. 과연 역노화는 이루어질 수 있을까?
노화에 대한 인류의 관심은 역사에 기록되어 있을 만큼 오래전부터 지속되어 왔지만, 노화라는 복잡한 생명 현상을 이해하는 것은 어려웠기에, 노화 연구는 오랫동안 인류의 대표적인 난제 중 하나였다. 그러나 1990년대부터 노화의 비밀이 하나씩 밝혀지기 시작하였다. 현재에 이르러서는 세포 수준에서의 노화(cellular senescence)에 대한 연구가 축적되면서 개체 수준에서의 노화(organismal aging)를 이해하는 연구가 활발히 진행되고 있다. 이제 인류는 역노화(reverse aging)라는 질문을 제기하는 단계에 이르렀다. 지금까지 축적된 노화 및 역노화 유도에 대한 연구들은 역노화에 대한 기대를 한층 높여주고 있다. 과연, 노화를 늦추는 것을 넘어 노화를 거슬러 이전의 ‘젊은’ 상태로 되돌릴 수 있는 기술이 가능할까?
세포 수준의 노화 연구는 레오나드 헤이플릭(Leonard Hayflick) 교수가 세포가 영속하지 않는다는 연구를 제시하면서 시작되었고, 상당한 진전을 이루었다. 2000년 대에는 야마나카(Yamanaka) 인자를 통해 성체세포를 줄기세포로 되돌리는 데에 성공하면서 이를 기반으로 한 노화 연구들도 진행되고 있다. 2010년에는 로날드 드핀요(Ronald DePinho) 교수가 쥐의 텔로머레이즈 효소를 재발현시킴으로써 노화를 역행하는 데에 성공했다는 논문을 발표하면서 역노화에 대한 가능성이 본격적으로 대두되었다. 한편 노화세포를 식별할 수 있게 되면서 개체 수준에서의 노화를 조절하는 방법을 찾는 시도가 활발히 이루어지고 있다.
과거 시르투인 단백질과 NAD 연구에서 시작된 역노화 연구는 현재 다양한 방향으로 발전되고 있다. 특히 노화세포 제거(senolytic) 및 젊은 피 수혈(parabiosis) 등 여러 접근법이 시도되고 있으며 최근에는 야마나카 인자의 과발현을 통한 세포 재프로그래밍 연구에 주목하고 있다. 이러한 연구들은 세포 수준에서의 성공적인 역노화 결과를 바탕으로 개체 수준으로 확대되고 있으며, 조직별로 나누어 보다 세밀하게 연구되고 있다. 이러한 다양한 시도들이 유기적으로 결합될 때 강력한 역노화 효과를 기대할 수 있을 것이다.
하지만 이러한 방법들로 세포들이 늙지 않고 계속 분열을 유도할 경우, 암 발생 등의 부작용을 초래할 수 있다. 노화세포는 주변 세포에 신호인자들을 분비하여 조직을 유지하고 조절하는 역할을 한다. 따라서 생물의 노화를 부적절하게 역행할 경우, 개체 수준에서 암 등 다양한 질병과 부작용이 생길 가능성을 배제할 수 없다. 게다가 현재 보고된 연구 결과들은 노화의 여러 생물학적 기전 중 일부만을 다루고 있기 때문에 역노화의 핵심적인 문제를 해결하는 것이라 하기 어렵다. 역노화 연구에 있어 개체 수준에서 노화를 연구한다는 것은 세포 수준의 노화 연구보다 훨씬 섬세하고 복잡하며, 의학적 상용화에 이르기까지 쉽지 않은 난제들이 놓여 있다.
한편, 역노화 연구를 본격적으로 하기 위해서는 철저한 검증절차를 만들고 표준화하는 것이 극히 중요하다. 역노화 연구에서 특정 인자에만 집중하다가 좌절된 사례가 부지기수다. 따라서 역노화의 효과를 검증할 수 있는 합리적 기준을 제시하고, 장기적, 지속적으로 모니터링하고 검증하는 것이 필요하다. 단순히 피부를 젊게 하거나 흰 머리를 검게 만드는 등 특정 현상을 개선하는 것은 쉬운 일이지만, 뇌를 포함하여 인체 전반에서 종합적으로 노화 혹은 역노화 현상을 정의하고 판단하는 것은 인체의 복잡성으로 인해 쉽지 않은 일이다. 이 검증절차가 선제적으로 만들어져 있지 않으면 개체 수준의 역노화 연구가 축적되기 어렵다.
결론적으로 기존의 연구를 종합하여 개체 수준에서의 역노화를 이루어낼 수 있는 핵심기술을 제시할 시점이 되었다.
기후위기가 심각해짐에 따라 화석 연료에 의존하고 있는 현대의 산업구조를 재생가능한 원료를 사용하는 지속가능한 산업구조로 대전환해야 한다는 목소리가 높아지고 있다. 그 대안으로 미생물의 대사 경로를 조작하여 유용한 화학 물질을 생산하는 시스템대사공학과 합성생물학 기술이 주목받고 있다. 온실가스를 원료로 하여 석유화학공정보다 더 경쟁력 있게 플라스틱을 생산하는 미생물 세포 공장을 개발할 수 있을까?
화석연료를 대체하려는 시도는 전세계적으로 다양한 분야에서 이루어지고 있다. 최근 급성장하고 있는 시스템대사공학과 합성생물학은 전통적인 화석자원에 의존하는 석유화학공정을 바이오 기반으로 전환시킬 수 있는 잠재력을 보여준다. 현재까지 미생물 세포공장을 통해 유용한 물질을 만들어낸 사례는 다양하다. 기후 변화의 주범인 이산화탄소(carbon dioxide, CO2)와 메탄(methane, CH4)과 같은 온실가스를 주원료로 활용하여 플라스틱 등의 유용한 화학물질을 효율적으로 생산하는 기술에 대해서는 과학적 가능성이 오래전부터 제기되어 왔다. 그러나 산업적 경쟁력을 갖추기에는 여러 가지 기술적 난제를 안고 있다.
온실가스를 탄소공급원으로 사용하여 플라스틱을 생산할 수 있는 균주의 개발(strain development)은 핵심적인 난제 중 하나다. 특히 이산화탄소에는 비편재화된 전자(delocalized electrons)가 없기 때문에, 미생물이 이를 활용하려면 수소(hydrogen, H2)나 개미산(formic acid; FA) 등과 같은 환원력(reducing power)이 제공되어야 한다. 따라서 자연계에 존재하는 미생물 중 온실가스를 먹고 자라는 미생물(예: Cupriavidus necator, Methylocystis parvus)을 개량하거나, 기존에 잘 알려진 균주를 온실가스를 활용할 수 있도록 개량하는 연구가 진행되고 있다. 하지만 이 전환 과정의 속도와 효율을 높이기 위해서는 핵심적인 역할을 하는 효소를 찾아내거나 개량해야 하는 어려움이 동반된다.
선별된 균주의 대사경로(metabolic pathways)를 최적화할 때 어떤 단계를 조절할 것인가도 어려운 문제다. 가장 일반적으로 시도되는 방법은 속도 제한 단계(rate limiting step)를 타기팅하여 이를 최적화하는 것이다. 이와 같은 방법의 일환으로 대장균(Escherichia coli)에서 테트라히드로엽산(Tetrahydrofolate, THF) 사이클과 글리신 절단(Glycine cleavage, GCV) 사이클의 특정 단계들을 조작하여 이산화탄소와 개미산만 있는 환경에서도 자랄 수 있도록 만든 사례도 존재한다. 하지만 그 성장 속도가 포도당과 비교했을 때 현저하게 낮고, 생산 물질의 생산력도 낮기 때문에 향후 더 효율적인 대사경로 및 균주를 만들어내야 한다.
또 다른 어려움은 생명체의 복잡성 때문에 일어난다. 생명체 내에서는 수백 개의 단백질들 사이에서 수천 개의 반응이 동시에 일어나고 있다. 따라서 이산화탄소를 미생물에게 먹이로 공급하여 원하는 물질을 생산하는 과정에 수많은 물질과 반응들이 복잡하게 관여하기 때문에, 이론적으로 예상했던 효율대로 생산이 이루어지기가 어렵다. 이를 해결하기 위해서는 이 생산과정에 관여할 것으로 알려져 있지만, 기능이 밝혀지지 않은 것들(known unknowns)에 대한 연구뿐만 아니라 아직 존재 자체가 알려지지 않은 것들(unknown unknowns)에 대한 지속적인 연구가 필요하다.
최근 들어 인공지능에 기반한 단백질 구조 예측 기술을 이용하여 이 문제를 해결하려는 시도들이 이루어지고 있지만, 분석해야 할 물질들의 수가 너무 많고 이들이 영향을 미치는 경로가 너무 복잡해 여전히 오랜 시간이 걸리고 있다. 이 검증시간을 줄이기 위해서는 시스템 대사공학 및 합성생물학 분야에서 혁신적인 툴(tool)이 나와야 하고, 또한 검증 실험의 속도와 정확성을 높일 수 있는 바이오 파운드리(biofoundry)의 활용이 필수불가결하다. 나아가 미생물 세포공장의 상업적 경쟁력 확보를 위해서는 공급 원료(feedstock)를 어디서 어떻게 수급할지가 정해져야 하며, 실험실 단위(lab-scale)가 아닌 공정 단위(large-scale)로 확장(scale-up)해야 하기에 다양한 분야의 지식을 아우르는 융합연구가 반드시 필요하다.
이산화탄소와 메탄 같은 온실가스를 원료로 미생물 세포공장을 이용해 우리의 일상에서 많이 사용되는 플라스틱을 효율적으로 경쟁력이 있게 생산할 수 있다면, 기존의 석유화학산업의 상당 부분을 대체하여 기후 변화에 대응할 수 있을 것이고, 지속가능한 제조 기술을 기반으로 한 새로운 산업을 대한민국이 창출하는 계기가 될 것이다.
아직 등장하지 않은 새로운 바이러스에 선제적으로 대응할 수 있는 백신을 선제적으로 개발하기 위해, 신종 바이러스에 대한 예측과, 범용 백신의 개발이라는 두 가지 측면의 접근이 이루어지고 있다. 여러 예측방법 및 백신기술이 가지고 있는 한계는 무엇이며, 이를 어떻게 극복할 수 있을까? 항체 기반의 백신과 T세포 기반의 백신을 합쳐 아직 출현하지 않은 바이러스에 효과적인 백신을 개발할 수 있는 방법이 있을까?
21세기 들어 SARS-CoV-1, H1N1 인플루엔자에 이어 최근 코로나 팬데믹을 일으킨 SARS-CoV-2 등을 겪으며 수많은 사망자와 중증 질환자가 발생했다. SARS-CoV-2의 경우, mRNA 백신의 개발로 인해 백신의 개발시간이 비약적으로 단축되었으나 여전히 11개월이라는 시간이 소요되었다. 또한 임상시험 단축 과정에서 다양한 부작용들이 보고되기도 했다. 지난 20년 동안 여러 차례의 팬데믹(pandemic)을 겪으면서, 아직 등장하지 않은 미래의 바이러스에 대비할 수 있는 예방 백신의 가능성에 대한 질문이 더욱 중요하게 부각되었다.
미래에 나타날 바이러스에 대한 백신을 미리 만드는 것이 가능할까? 이에 대하여 지금까지 알려진 두 가지의 전략이 있다. 첫 번째는 미래에 어떤 신종 바이러스가 나타날지를 정확히 예측함으로써, 이에 대한 백신을 선제적으로 개발하는 것이다. 두 번째는 유행 가능성이 있는 여러 바이러스에 대해 범용적인 효과를 낼 수 있는 백신을 개발하는 것이다.
첫 번째 예측 전략의 경우, 세부적으로 여러 가지 주제가 있지만, ‘하나의 바이러스 안에서 어떠한 변이가 나타날 것인가?’의 예측이 가장 중요하다. 현재 관심의 대상이 되는 바이러스는 인플루엔자와 코로나 바이러스다. 이 두 바이러스는 호흡기 바이러스이기 때문에 쉽게 전파될 수 있으며, 변이가 많이 생긴다는 공통점을 갖고 있다. 특히 백신 개발의 관점에서는 변이가 많이 발생한다는 점이 더 곤혹스러운 부분이다. DNA 바이러스와 달리, 인플루엔자와 코로나 바이러스는 RNA 바이러스이기 때문에 변이가 더 쉽게 생긴다. 그 가운데 인플루엔자의 경우 특히 항원대변이(antigenic shift)라는 현상 또한 많이 일어나는데, 이는 서로 다른 바이러스에 동시감염(co-infection)되었을 때 유전자조각(gene segment)들이 섞이고 그로 인해 새로운 종류의 바이러스가 나타나는 현상이다. 이러한 특징 때문에 인플루엔자가 미래에 크게 유행할 수 있는 신종 바이러스로서 가장 중요하게 언급되고 있고, 이에 대한 예측이 중요한 과제로 인식되고 있다. 이와 관련하여 딥러닝, 컴퓨터 시뮬레이션 등을 통해 다양한 방식의 예측이 시도되고 있으나, 아직 예측의 정확도는 장담할 수 없는 단계이다.
두 번째 범용 백신(universal vaccine) 개발 전략의 경우, 범용성의 범위에 따라 다르게 해석될 수 있다. 범용성의 범위를 한 종류의 바이러스 내의 다양한 변이로 생각할 것인가, 아니면 여러 종류의 바이러스로 생각할 것인가에 따라 범용 백신 개발의 난이도와 가능성이 달라진다. 범용백신이 어려운 이유는 항원 특이성(antigen specificity) 때문이다. 인체가 바이러스에 대항하는 후천적 면역에는 크게 항체와 T세포가 있는데, 이 때 항원 특이성이 중요하게 작용한다. 한 종류의 항체 혹은 T세포 수용체는 하나의 바이러스 구조 혹은 항원결정기(epitope)라고 하는 펩타이드(peptide) 서열에 특이적으로 결합하게 되는데 이를 항원 특이성이라고 한다. 따라서 여러 바이러스에 대항할 수 있다는 의미는 역설적으로 항원 특이성이 떨어진다는 것을 의미하기 때문에 작용효과가 낮아질 수밖에 없는 문제가 있다. 즉, 범용성과 작용효과 간에 상충관계가 있다.
따라서 두 가지 백신 개발 전략에 대한 비교를 종합해보면, 미래 바이러스 예측 기반의 백신 개발은 예측에 성공하였을 경우 해당 바이러스에 특이적이고 강력한 면역 반응을 유도할 수 있지만 그러한 예측 자체가 어렵다는 단점이 존재하며, 범용 백신은 여러 바이러스에 공통적으로 작용할 수 있지만 작용 효과가 떨어질 수 있다는 한계가 존재한다.
아직 등장하지 않은 바이러스에 대한 백신 개발의 또 다른 고려 사항 중 하나는 항체 반응과 T세포 반응의 조화다. 우선 항원에 결합하는 항체 중, 특히 중화항체는 바이러스의 당단백질 등과 같이 바이러스 침입에 주로 관여하는 항원결정기에 결합하여 바이러스 감염을 억제한다. 이러한 과정을 중화과정이라고 한다. 반면, T세포는 세포 표면에 드러나 있는 바이러스 단백질로부터 유래한 항원결정기를 인식하고 감염된 세포를 사멸시켜 바이러스의 증식을 막는다. 즉, 항체반응에 기반한 중화항체는 감염 자체를 예방하는 역할을 수행하며, T세포는 감염을 예방할 수는 없지만 바이러스 감염으로 인한 질병의 중증화를 억제할 수 있다. 백신의 경우 예방을 주 목적으로 생각하기에 중화항체의 역할이 더 커 보이지만, 중화항체의 역할에 있어서는 ‘변이’라는 걸림돌이 존재한다. 중화항체의 경우 바이러스 단백질의 특정한 좁은 항원결정기 부분에 돌연변이가 일어나면 쉽게 무력화될 수 있다. 이에 반해, T세포 수용체의 경우 항원결정기가 한 바이러스가 가지는 다양한 단백질의 다양한 부분에 흩어져 존재하기 때문에 어느 한 부분에 돌연변이가 일어난다 하더라도 쉽게 무력화되지는 않는다. 다만, T세포를 기반으로 한 백신은 일단 감염 후 감염된 세포를 사멸시켜 중증으로 가는 것을 막아주는 것이기 때문에 사전예방이라는 백신의 의미에 맞지 않는 문제가 있다.
종합해보면, 신종 바이러스 예방 백신의 선제 개발을 위해서는 바이러스의 특성에 따라 앞서 언급한 예방적 백신 개발의 2가지 전략과 항체 및 T세포의 장단점을 모두 조합해야 한다. 특히, 인류가 21세기에 경험한 바이러스들의 경우 다양한 변이를 갖기 때문에 항체 면역 반응뿐만 아니라 T세포 면역 반응을 끌어낼 수 있는 백신을 개발하는 것이 매우 중요하다. 현재 백신 연구에서는 바이러스나 항원에 대한 연구뿐만 아니라, 항원을 전달하는 플랫폼(platform) 기술에 대한 연구도 활발하게 진행되고 있다. 그러므로, 미래에 창궐할 수 있는 바이러스에 대한 예측과 더불어 바이러스 특이적인 항체와 T세포를 유도할 수 있는 다양한 기전들을 기존의 mRNA 플랫폼이나 새로운 플랫폼을 통해 보다 효과적으로 전달할 수 있다면 신종 바이러스를 예방할 수 있는 백신의 선제 개발 또한 가능해질 것으로 생각된다.
현재의 뇌공학 기술은 감각이나 운동과 관련된 뇌 기능이 손상된 경우 전기적으로 뇌를 자극함으로써 부분적으로 기능을 회복시킬 수 있는 단계에 이르렀다. 그러나 기억이나 학습과 같은 고등 인지 기능은 그 신경 활동의 복잡성으로 인해 작동 메커니즘조차 충분히 이해되지 않고 있어, 기술적인 접근이 어려운 상황이다. 뇌 기능을 깊이 이해함으로써, 인간이 개발한 기계 장치를 통해 인지장애를 치료하는 수준을 넘어 다양한 고등인지 기능을 제어하고, 궁극적으로 가상현실보다 더 뛰어난 뇌내현실을 구현할 수 있을까?
20세기 중반 이후, 과학자들은 뇌가 신경세포(neuron) 간에 다양한 전기적 신호와 화학적 신호를 전달함으로써 작동한다는 것을 밝혀냈고, 이를 바탕으로 뇌에서 발생하는 감각, 운동, 인지과정들을 이해하기 위한 연구가 활발히 이루어져 왔다. 특히 블랙박스처럼 여겨졌던 뇌인지 작용 역시 전기적 신호에 기인하는 물리적 현상이라는 사실이 밝혀진 후, 뇌에서 일어나는 고등 인지작용을 제어할 수 있는 이론적 가능성이 언급되기 시작했다. 이러한 가능성을 전제로, 뇌 기능 이상을 치료하는 신경보철(neuroprosthetics) 연구와 그보다 더 일반적인 뇌-기계 상호작용(BMI)에 관한 연구가 본격화되었다. 그 결과 인공와우 삽입술, 인공시각과 같이 감각기관의 손상을 기계적 장치의 이식을 통해 극복하고자 하는 시도는 이미 현실에서 이루어지고 있으며, 최근에는 더욱 복잡한 신경활동을 디코딩함으로써 뇌 속의 인지적 정보를 해독하는 데 연구가 집중되고 있다.
현재 보편적으로 많이 사용되는 기능적 자기공명영상(fMRI)을 이용하면 뇌의 신진대사 과정이 활성화되는 패턴을 측정할 수 있다. 최근에는 이러한 기술을 바탕으로 감각 정보를 처리하고 의사결정을 하는 뇌의 기능을 이해하는 데 큰 진전을 이루고 있다. 이러한 시도는 뇌-기계 인터페이스 기술의 기초가 되고 있지만, 뇌가 처리하는 정보를 좀 더 정확하게 파악하기 위해서는 개별적인 신경세포가 만들어내는 활동전압의 변화를 정밀하게 측정해야 한다. 예를 들어, 최근 널리 알려진 일론 머스크의 뉴럴링크(Neuralink) 프로젝트는 고해상도 전극을 뇌에 삽입해 뇌와 외부 기기를 연결하고 실시간으로 신경 신호를 주고받는 것이 가능하다는 것을 입증했다. 실제로 원숭이나 사람이 생각만으로 콘솔 게임을 조작하는 실험에 성공한 바 있다.
궁극적으로는 기계적 장치를 통해 외부에서 뇌를 자극하여 인지작용을 인공적으로 만들어낼 수 있는 기술이 만들어진다면, 새로운 시대가 열릴 것으로 기대된다. 이 기술이 현실화되면 단순히 뇌의 감각 장애 치료를 넘어 더 상위 인지영역에서의 뇌 질환 치료는 물론, 더 나아가 일반적 인지능력의 증강으로 확장될 수 있다. 예를 들어 감각 정보 처리 메커니즘을 이해하고 이를 기계로 증강할 수 있다면 감각기관을 통해서 구동되는 현재의 가상현실과는 전혀 다른 차원의 뇌내현실을 구현할 수 있게 될 것이다. 또한 이를 통해 인지기능을 뇌 안으로 “다운로드”하는 기술이 실현된다면, 새로운 언어나 기술을 즉시 사용할 수 있는 혁신적인 학습법을 제공할 수 있을 것이다. 이처럼 과거 공상과학에서 다뤘던 기계를 통한 인지기능 제어가 현실이 될 수 있다.
그러나 지금까지의 많은 연구에도 불구하고 아직은 뇌 기능을 전기적으로 완전히 제어하는 것이 불가능하다. 가장 큰 이유는, 뇌 속의 신경 메커니즘이 너무나 복잡하기 때문이다. 1950년대 휴벨(Hubel)과 위젤(Wiesel)의 연구로 일차 시각피질에서 단순세포와 복잡세포의 역할이 밝혀진 것처럼, 시각, 청각, 운동 등 초기 감각과 운동 정보 처리에 대한 이해는 점차 발전해왔다. 그러나 고등 인지기능이 처리되는 상위 영역으로 갈수록 뇌 신호의 복잡도는 기하급수적으로 증가한다. 또한, 뇌 영역은 복잡한 여러 계층으로 연결되어 있어 단순히 각각의 부분을 분석하는 환원주의적 접근법으로는 한계가 있다. 이러한 뇌의 복잡계적인 특징은 그 원리를 이해하고 조작하는 것을 어렵게 만드는 주요 원인이 된다.
그럼에도 불구하고, 고충실도(high-fidelity)의 신호를 측정하고 전달할 수 있는 기술을 개발하고, 뇌 가소성(plasticity)과 자기조직화(self-organizing) 원리를 완벽하게 이해하고 활용할 수 있게 된다면, 전기적 조작을 통한 인지기능의 증강이 가능할 것이다. 이는 뇌의 개별적인 신경회로를 정확히 파악하고 있지 않더라도 가소성과 자기조직화 등 뇌의 적응력을 이용해 뇌가 스스로 인공적인 자극에 대해 학습하고 적응하도록 유도할 수 있기 때문이다. 생물학적 감각 시스템의 정보 용량과 유사한 수준의 신호를 전달할 수 있다면, 인공적 자극에 자연스럽게 적응하고 새로운 뇌내현실을 경험할 수 있는 획기적인 기술이 실현될 수 있을 것이다.
오늘날 CPU와 GPU는 폰 노이만 아키텍처를 기반으로 하고 있다. 그러나 이 구조는 에너지 효율성과 성능을 높이는 데 근본적인 한계가 있다. 그 대안으로 떠오른 뉴로모픽 아키텍처는 뇌의 뉴런과 시냅스를 모방해 폰 노이만 아키텍처의 한계를 극복할 수 있을 것으로 주목받고 있다. 그러나 이 기술을 완성시키기 위해서는 신경망에 대한 근본적인 이해, 3차원(3D) 구조 반도체 설계, 아날로그 방식의 구현 등 여러 측면에서 기술적 난관이 존재한다. 이러한 기술적 난관을 넘어 뇌와 같이 높은 연산 효율을 가진 뉴로모픽 칩을 구현할 수 있을까?
오늘날의 CPU와 GPU는 폰 노이만 아키텍처에 기반하고 있다. 폰 노이만 아키텍처란 명령어에 따라 칩의 데이터경로를 재구성하여 다양한 작업을 수행할 수 있게 하는 구조를 말한다. 쉽게 말해 수행할 작업에 따라 하드웨어를 따로 두지 않고 프로그램을 바꾸어 재사용할 수 있도록 하는 것이다. 이를 위해서는 연산에 필요한 명령어(연산자)와 데이터(피연산자)를 연산 회로로 불러온 다음 정해진 순서에 따라 작업을 수행해야 한다. 이러한 폰 노이만 구조에서 칩의 성능을 높이기 위해 기업들은 트랜지스터를 소형화하는 방식으로 연산 성능과 에너지 효율을 향상시키는 데 집중해왔다.
그러나 최근 10년간 미세화 기술이 원자 스케일까지 도달해 트랜지스터 미세화 전략의 한계가 나타나고 있으며, 그에 따라 에너지 효율성과 메모리 병목현상을 개선하는 기술 또한 발전속도가 느려지고 있다.
최근 폰 노이만 아키텍처의 근본적인 한계를 해결하고 더 효율적으로 작업을 수행할 수 있는 대안으로서 뉴로모픽 컴퓨팅이 주목받고 있다. 인간의 뇌는 약 1,000억 개의 뉴런과 100조 개의 시냅스로 구성된 거대 신경망을 이용하여 복잡한 작업을 수행하면서도 약 20W의 전력만을 소모하는 효율적인 연산 장치로 알려져 있다. 또한, 뇌는 폰 노이만 아키텍처의 컴퓨터와 달리 수행 작업이 달라짐에 따라 데이터 경로를 바꾸지 않으며, 또한 뉴런 간 연결 상태 자체에 데이터를 저장하고 있기 때문에, 폰 노이만 아키텍처에서 나타나는 메모리 병목현상도 발생하지 않는다. 뉴로모픽 컴퓨팅은 뉴런과 시냅스로 이루어진 뇌의 연산 방식을 모방하여 에너지 효율을 높이는 동시에, 폰 노이만 병목현상을 해결할 차세대 아키텍처로 주목받고 있다. 이와 관련하여 뇌신경과학 분야와 반도체 설계 분야의 연구자들이 융합적 접근 방법을 통해 뉴로모픽 알고리즘과 하드웨어 구조를 연구하고 있다.
하지만 뉴로모픽 컴퓨팅의 실현에는 여러 기술적, 경제적 난관이 존재한다. 첫째, 뇌 내부의 뉴런들이 어떤 방식으로 신호를 주고받는지에 대해 아직까지 정확히 알려져 있지 않다. 지금까지 알려진 바에 따르면 뉴런 간의 신호 연결은 매우 복잡하고 미세하다. 때문에 뉴런 간 통신과 학습 알고리즘에 대해 확실히 검증된 이론 없이는 완전한 의미의 뉴로모픽 아키텍처를 구현하는 것이 매우 어렵다. 둘째, 현재의 반도체 칩은 평면(2D)을 기반으로 설계되고 있는 반면, 뇌의 뉴런과 시냅스는 3차원(3D)으로 연결되어 있다. 따라서 현재의 2D 기반 반도체 설계로 3D 기반 뉴로모픽 아키텍처를 구현하는 것은 어렵고, 완전히 새로운 방식의 패러다임이 도입될 필요가 있다. 셋째, 뇌의 뉴런과 시냅스는 아날로그 방식으로 연산과 저장을 동시에 수행하는데, 현재의 반도체 기술로는 공정(process), 전압(voltage), 온도(temperature) 등 소위 PVT의 변화에 강건한 아날로그 연산 장치를 구현하는 것이 매우 어렵다. 극저온에서 누설 없이 구동되는 강건한 공정, 새로운 소자 개발 등 다양한 연구를 통해 아날로그 컴퓨팅의 강건성을 높여야 한다. 넷째, 뉴로모픽 칩은 폰 노이만 아키텍처를 기반으로 한 칩보다 물리적으로 연결(hard-wiring)해야 하는 부분이 많다. 이는 사용 용도에 따라 물리적 연결구조가 다른 뉴로모픽 칩을 다양하고 빠르게 만들 수 있어야 함을 의미한다. 이를 위해서는 뉴로모픽 칩을 설계하는 대로 즉시 공급할 수 있는 새로운 파운드리 생태계가 필요하다.
위의 난관들을 보면 뉴로모픽의 실제 구현과 상용화까지는 가야 할 길이 멀다고 할 수 있다. 그러나 많은 신경과학자들과 반도체 공학자들이 진정한 뉴로모픽 칩을 탄생시키기 위해 많은 관심을 쏟고 있다. 관련 연구로는 뉴런 간의 신호를 나노 전극을 통해 초고감도로 측정하여 뉴런 연결 지도를 복사하고 이를 반도체 설계에 활용하는 연구, 뉴로모픽 알고리즘 개발을 위한 대규모 뉴로모픽 칩(Loihi, TrueNorth) 연구 등이 있다.
이 그랜드 퀘스트가 달성된다면, 트랜지스터 미세화 전략의 한계가 드러나고 있는 현재의 폰 노이만 아키텍처를 넘어설 수 있을 것이다. 이를 통해 개인은 자신이 필요로 하는 작업에 맞춰 개인 맞춤형 뉴로모픽 칩을 설계하고 주문하여 활용할 수 있게 되며, 완전히 새로운 컴퓨팅의 시대가 열릴 것으로 기대된다.
한 자릿수 나노미터 크기의 반도체 공정에 도달하면서 실리콘 기반 반도체 공정 기술의 한계에 봉착하면서, 구조 변화와 신소재 개발 등의 노력에도 불구하고 많은 새로운 기술들이 실현되는데 난항을 겪고 있다. 나노 단위보다 작은 옹스트롬 (Å) 급 단위의 반도체 제조 공정 기술 개발의 어려움은 무엇이며 이를 극복하고 미래 첨단 산업의 발전을 가속하기 위해서는 어떠한 노력이 필요할까?
삼성과 TSMC가 2025년 2나노미터(nm) 공정 양산을 시작할 예정이라는 기사처럼 최근 한 자릿수 나노미터 단위의 초미세집적공정 기술에 대한 뉴스를 어렵지 않게 접할 수 있다. 반도체 기술은 공정 미세화를 통해 더 많은 반도체 소자를 칩에 집적함으로써 성능을 발전시켜 왔다. 이러한 미세화는 나노미터 단위를 넘어 원자 하나의 지름과 그 척도가 비슷한 옹스트롬 단위를 바라보고 있다. 그러나 여러 가지 기술적 난관이 가로놓여 있다.
반도체의 역사는 1959년 금속산화막반도체 전계효과 트랜지스터(MOSFET)의 발명으로부터 시작된다. 그 후 실리콘(Si) 기반의 상보성 금속산화막반도체(CMOS) 공정 기술을 바탕으로 50년 동안 무어의 법칙에 따라 집적도를 1-2년마다 2배씩 높여가며 발전해 왔다. 그러나 실리콘 기반의 CMOS 공정은 미세화의 한계를 보이고 있다. 14나노미터 핀펫(FinFET) 공정의 도입 이후 이보다 더욱 미세화된 공정을 실현하기 위해 게이트 올 어라운드(Gate All-Around(GAA)) 나노와이어(nanowire), 나노시트(nanosheet) 등 새로운 형태의 설계와 새로운 소자를 도입 추진 중이다. 또한 노광공정(photolithography)에 의한 하향식(top-down) 공정이 나노미터 단위에서 한계에 도달함에 따라 옹스트롬 단위 XY축에서의 수평적 미세화와 더불어 Z축의 수직적 3차원 집적을 추구하면서 CMOS 공정의 집적도를 지속적으로 높이려고 노력하고 있는 중이다.
나노미터의 10분의 1인 옹스트롬급의 CMOS 공정을 구현하기 위해서는 몇 가지 해결해야 할 난제들이 있다. 참고로, 여기서 옹스트롬급이라 함은 미세 선폭을 의미하는 것이 아니라 1나노미터 이후(이하?)의 공정기술 노드(node)를 의미한다. 첫째, 현재의 노광장비의 기술발전 추세로는 옹스트롬급 CMOS 공정을 구현하기 어렵다. 둘째, 회로 선폭이 미세해질수록 누설전류 현상이 커지는데, 현재의 실리콘 소재는 이를 막는 데 적합하지 않다. 즉 옹스트롬 수준의 미세화를 위해서는 새로운 채널 소재가 필수적이다. 셋째, 반도체 산업에서 반세기 동안 구축해온 기존의 실리콘 기반 인프라가 막대하기 때문에 규모의 경제와 감가상각에 따른 비용우위가 있다. 이런 상황에서 새로운 소재와 설계를 반영한 신공정이 경쟁우위를 갖기 어렵다. 따라서 옹스트롬 단위의 공정이 가능한 신물질과 신기술은 반드시 기존 실리콘 기반 CMOS 공정과 호환이 되어야 한다. 이 과제들은 그 해답을 구하기가 아주 어려운 난제들이다.
현재 이와 관련한 연구들이 활발하게 진행되고 있다. 우선 한계에 직면한 수평적 미세화를 벗어나 수직적 통합을 통해 칩의 집적도를 높이기 위한 방안으로, 웨이퍼 표면에 이종의 물질이 있는 상태에서 서로 접합하는 하이브리드 접합기술이 개발되고 있다. 궁극적으로는 여러 층을 순차적으로 쌓는 단일 3차원 집적(Monolithic 3D Integration)을 통해 새로운 성능과 기능을 달성하려는 연구가 진행 중이다.
또한 실리콘 소재 자체의 한계를 극복하기 위해 옹스트롬 단위 두께의 2차원 채널물질과 같은 새로운 반도체 소재를 사용하기 위한 연구가 활발하게 이루어지고 있다. 다만, 이 경우에는 기존 CMOS 공정과의 호환이 문제가 된다. 즉 원자나 분자 수준에서 소자를 설계하고자 하는 상향식(bottom-up) 접근법의 일환으로 탄소나토튜브(CNT)나 그래핀 같은 1, 2차원 물질에 대해 지난 20여년간 많은 연구가 있었음에도 불구하고 기존 CMOS 공정과 호환이 되지 않아 산업계에서 신기술 투자를 결정할 수 없었다. 따라서 이 방향의 연구에서는 성숙되어 있는 CMOS 공정과의 접점을 확보하는 연구가 절실하다. 또한 상향식 접근법에서는 집적회로 구현을 위해서 상호보완적인 타입의 N형, P형 2차원 물질을 동시에 형성하는 기술이 필수적인데, P형 2차원 반도체의 캐리어 이동성은 N형보다 상대적으로 낮기 때문에 고성능을 발휘하기 어렵다. 이 문제를 극복하기 위한 P형 2차원 반도체에 대한 연구가 많이 부족한 실정이다. 하이브리드 접합이라는 관점에서 실리콘 기반 CMOS와 N형, P형 2차원 반도체를 결합하는 것도 하나의 유력한 해결책이 될 수도 있지만, 실현하기 위해서는 많은 연구가 필요하다.
2차원 반도체와 실리콘 기반 CMOS의 하이브리드 접합 기술을 만들 수 있다면, 성능(Performance), 전력(Power), 면적(Area), 비용(Cost) 측면에서 기존보다 뛰어난 옹스트롬급 CMOS 집적공정을 실현할 수 있을 것이다. 이 기술이 가능해진다면 인공지능, 자율주행차, 고성능 컴퓨팅 등 다양한 기술영역에서의 발전이 촉진될 것이고, 특히 에너지 효율성이 높아질 수 있기 때문에 최근 환경 문제로 대두되는 인공지능, 데이터 센터들의 전력 사용량 및 냉각 소모 비용들이 크게 개선될 것이다.
그간의 연구개발 경험을 돌이켜보면, 새로운 화두를 던지는 것이 늘 칭찬과 박수를 받는 일은 아니다. 세상이 놀랄 만한 아이디어로 기존의 틀을 깨고 사람들을 설득시키기 위해서는 센세이셔널하다는 표현만큼이나 엄청난 고통이 뒤따르게 된다. 하지만 철학과 비전을 명확하게 설정하고 몰입하게 되면, (사람들은) 한 번 더 진지하게 쳐다보게 되고, (이는) 세상의 관성을 극복하는 데 도움이 될 것이다.
실리콘 기반의 CMOS 트랜지스터 소자를 중심으로 형성된 반도체 산업은 AI가 요구하는 대규모 연산을 저전력으로 빠르게 처리하지 못한다는 한계를 보이고 있다. 그러나 트랜지스터의 크기를 줄이는 것만으로는 문제 해결이 본질적으로 불가능하다. 이제 실리콘 기반 소자의 한계가 도래할 때를 대비하여 새로운 소자로 패러다임 전환을 고민해야 한다. 이를 위한 대안적 해법이 무엇이며, 이를 실현시키기 위해 풀어야할 과제는 무엇인가?
현재 반도체 산업에서 사용하는 소자는 실리콘 기반의 상보적 금속 산화물 반도체(CMOS) 기술을 이용한 트랜지스터이다. 이러한 CMOS 구조를 대면적으로 만들 수 있는 물질은 현재까지 실리콘이 유일하다. 그동안 실리콘 기반 패러다임 하에서 무어의 법칙을 따라 18개월 마다 집적회로의 트랜지스터 수를 2배씩 증가시키면서 빠르게 발전해왔다. 최근에는 칩 하나에 수 백억개의 트랜지스터를 집적할 수 있는 기술수준에 이르렀다. 이러한 기술발전은 트랜지스터를 보다 작게 만드는 것, 즉 다운사이징을 통해 이루어져왔다. 2000년대 초까지만 하더라도 100nm 정도의 트랜지스터의 선폭(node)을 가지고 있었지만, High-K 메탈 게이트(metal gate) 공법을 도입하면서 45nm 공정이 가능해졌고, Fin Field-Effect 트랜지스터 구조를 도입하면서 22nm 이하의 공정이 가능해졌다. 현재 삼성전자와 TSMC에서는 3nm 이하의 기술까지 개발한 상황이다. 하지만 트랜지스터의 다운사이징은 머지않아 한계에 다다를 전망이다. 노드(node)가 작아질수록 누설전류의 문제가 심각해지고 있으며, 무엇보다 상온에서 단위 비트(0/1)를 구분할 수 있는 물리학적인 한계 크기가 1.5nm로 주어져 있기 때문이다. 인공지능의 발전에 따라 요구되는 연산량이 급증하고 있고 저전력으로 동작하는 에너지 효율적인 소자가 요구되는 상황에서, 더 이상 트랜지스터의 다운사이징 만으로는 근본적인 문제 해결방법이 되지 못하는 것이다. 이를 극복하기 위해 현재 시도되는 방향들은 다음과 같다.
첫째, 실리콘 기반의 CMOS-FET의 한계를 보완하기 위한 새로운 소자 기술로서 NC-FET, 터널링-FET 등의 시도가 이루어지고 있다. 이러한 기술들이 3nm 이하의 소자를 구현하는데 중요한 역할을 하겠지만, 이들 역시 근본적으로는 실리콘 기반의 전계효과 트랜지스터의 한계를 공유한다는 단점이 존재한다. 둘째, 극소형 실리콘 트랜지스터의 단점을 극복하기위해 전이금속디칼코게나이드(TMD)와 같은 2차원 반도체 물질을 활용하려는 연구가 많이 진행되고 있다. 2차원 반도체의 경우 결정층의 한 층 크기까지 안정적으로 채널을 줄일 수 있고 단채널효과(short channel effect)를 회피하여, 1nm급 소자기술에 유리하다. 그러나 2차원 반도체 물질을 사용하더라도 CMOS 기술의 과도한 에너지 소모문제와 물리학적인 선폭의 한계는 여전히 동일하게 남는다.
이러한 기술들을 바탕으로 컴퓨팅 효율을 높이기 위해서 다양한 엑셀러레이팅 기술과 패키징 기술이 개발되고 적용될 것이다. 하지만 이러한 CMOS 기반 소자기술은 1.5nm라는 근본적인 물리적 한계에 직면할 수 밖에 없다. 따라서 이 한계를 돌파하기 위해서 기존의 패러다임을 벗어난 완전히 새로운 소자기술로서 폰 노이만 구조를 극복한 새로운 소자기술(non von Neumann architecture)을 고민해야 한다. 이러한 대안적 소자기술들은 에너지소모가 획기적으로 적어야 하며 초고성능 연산을 수행할 수 있어야 하는 조건을 만족해야 한다. 또한 가장 중요하게는 이러한 새로운 컴퓨팅 아키텍쳐를 구현할 소자기술이 기존의 축적된 반도체산업의 플랫폼 위에 큰 무리가 없이 이식될 수 있어야 한다.
실리콘을 벗어난 새로운 소자기술로서 고려할 수 있는 대안들은 다음과 같은 것들이 있을 수 있다. 우선, CMOS 기술을 벗어나 저전력으로 많은 데이터의 연산을 가능하게 하는 멤리스터 소자(memristor)가 있다. 멤리스터는 금속-절연체-금속이 접합되어 있는 구조를 가지며, 트랜지스터와 달리 3단자가 아닌 2단자 소자로 작동하고, 다층 정보처리를 할 수 있는 장점이 있다. 고집적에 유리하고 저전력으로 구동하기 때문에 인공지능 연산에 적합한 뉴로모픽 컴퓨팅(neuromorphic computing)에 도입하기 위해 많은 연구들이 진행되고 있다. 하지만 아직까지는 다중 정보처리를 안정적으로 구현할 수 있는 높은 재현성과 신뢰도를 가지고 다층적인 저항 값들을 구현하는 소자가 만들어지고 있지 않다. 두 번째는 좀 더 미래적인 기술의 가능성으로, 초전도쌍이나 엑시톤과 같이 두 개의 전자들이 결합하여 저항없이 전도되는 상태를 이용하는 기술을 고려할 수 있지만, 아직까지 구체적인 계산을 수행할 수 있는 소자로서는 발전하고 있지 못하다. 세 번째로는 위상절연체로서 저항없이 전도가 가능한 위상전도 채널이 존재하는 물질들을 이용하는 기술이 있을 수 있다. 이 대안의 경우에도 향후 다층 정보처리가 가능한 소자로서 활용하는 기술이 추가적으로 개발되어야 한다. 네 번째는 역시 위상학적으로 보호되어 저항없이 전도되는 솔리톤 입자를 이용하는 기술로서 최근 실리콘과 2D 물질 등에서 구현할 수 있다는 점이 실증된 바 있다. 솔리톤 소자는 저항 발열에 의한 에너지소모가 없을 뿐만 아니라 다진법 연산이 가능하기 때문에 초저전력, 초고성능 소자로서의 가능성이 충분하다.
위에서 논의한 바와 같이 현재의 실리콘 소자기술은 3nm급 소자기술을 계속 다운사이징하면서 발전할 것이고, 결국에는 1.5 nm라는 물리적인 한계사이즈에 도달할 것이다. 이를 위해서 단중기적으로는 TMD와 같은 2D 물질을 통해 부분적인 소재개량을 하면서 현재의 발전추세를 연장해갈 것이다. 그러나 1.5nm의 물리적 한계에 도달한 이후에는 초저전력, 초고성능 컴퓨팅을 구현하기 위해 폰 노인만 컴퓨팅을 넘어서는 컴퓨팅 아키텍쳐와 이를 지원할 FET 이후의 소자기술이 반드시 요구된다. 뉴로모픽 컴퓨팅과 같은 새로운 컴퓨팅을 지원할 소자기술은 다진법 연산과 같은 다중정보처리를 매우 적은 전력소모로 구현해야 하는데, 이를 위해 멤리스터, 엑시톤 소자, 솔리톤 소자 등의 도전과제로서 등장하고 있다. 그러나 아직까지 넘어야 할 기술적 난제가 많고, 특히 기존 실리콘기반 반도체 플랫폼에 조화롭게 통합될 수 있는 방안이 제시되고 있지 않은 실정이다. 이것이 우리가 당면한 반도체 소자기술의 그랜드 퀘스트이다.
영화 속 장면처럼 허공에 떠있는 영상을 만드는 공간 디스플레이 기술은 언제쯤 우리 곁으로 올 수 있을까? 2차원의 평면 디스플레이에서 벗어나 3차원 공간에 영상을 만드는 공간 디스플레이를 구현할 수 있을까? 가상과 현실을 유연하게 통합할 수 있는 공간 디스플레이 구현을 위한 주요 기술적 과제는 무엇이며, 이러한 기술의 발전 방향은 어디로 향해야 할까?
지난 수십 년간 디스플레이 기술은 더 뚜렷하고 생동감 있게 세상을 바라보고자 하는 인간의 욕망을 충족시키는 방향으로 발전해 왔다. 현대 디스플레이는 브라운관(CRT)에서 시작해 액정 디스플레이(LCD), 자발광형 디스플레이(OLED)를 거치며 높은 해상도와 풍부한 색채 표현력을 달성하였고, 텔레비전, 스마트폰, 스마트워치 등 다양한 전자 제품에 적용되며 현대인의 삶에서 가장 필수적인 일상 용품이 되었다. 그러나 아직까지 디스플레이는 2차원의 평면 스크린 안에서 제한적으로 정보를 표현하며, 그 형태는 사각형의 정형화된 모습을 크게 벗어나지 못하고 있다. 반면, 영화 '마이너리티 리포트'에는 손짓으로 제어할 수 있는 홀로그램 디스플레이가, 영화 ‘아이언맨’에는 자유자재로 늘리고 줄일 수 있는 스트레처블 디스플레이가 등장한다. 이처럼 정해진 틀 없이 자유로운 형태(form factor)를 가지며 3차원 공간 내에 정보를 표현할 수 있는 디스플레이를 ‘공간 디스플레이’라 하며, 미래 디스플레이는 공간 디스플레이를 실현하는 방향으로 발전할 것이다.
영화 속에서 자주 묘사되는 것처럼, 아무것도 없는 공간에서 3차원 정보를 표현하기 위해서는 임의의 3차원 공간 내에 디스플레이 픽셀을 형성할 필요가 있다. 3차원 공간 상의 서로 다른 점을 할당할 수 있는 최소 단위를 부피(Volume)와 픽셀(Pixel)의 합성어인 복셀(Voxel)이라고 정의하며, 최근 복셀을 구현하기 위한 다양한 방식이 제안되었다. 예를 들어, 3차원 공간에 작은 플라스틱 입자를 띄우고 빠른 속도로 움직이는 입자에 광원을 투사하거나, 아주 강한 세기의 레이저를 순간적으로 조사하여 공기 중에서 빛을 폭발시켜 복셀을 형성하는 방법이 있다. 이러한 형태의 디스플레이는 입자를 가둬 두기 위한 물리적 공간이 필요하며, 제어 장치의 부피 때문에 사용 공간이 제한되거나, 강한 세기의 광원을 사용하여 사용자가 다칠 위험성이 있어 쉽게 상업화되지 못하고 있다.
이러한 한계를 극복하는 방법 중 하나는 디스플레이에 스트레처블 플랫폼을 적용하는 것이다. 스트레처블 플랫폼은 물체나 표면이 신축성 있게 늘어나거나 축소되면서 모양이나 기능이 변화되는 기술로, 탄성 있는 소재나 기계적 구조를 활용해 표면을 확장하거나 줄이는 것이 특징이다. 이 기술은 복셀을 구현하기 위한 공간을 확보하는 방법 중 하나로 활용될 수 있다. 기본적으로는 2차원 화면을 유지하다가 필요할 때 3차원 공간으로 확장할 수 있다면 입자를 가두는 공간을 확보하는 동시에 휴대성까지 유지할 수 있어 공간 활용도가 매우 높다. 이처럼 스트레처블 플랫폼 기술은 새로운 개념과 상상력을 바탕으로 공간 디스플레이 구현에 다양한 방식으로 응용될 가능성이 크다.
공간 디스플레이를 제작하기 위한 또 다른 방법으로 홀로그램 기술이 상업적으로 꾸준히 관심을 받아왔다. 홀로그램 기술은 얇고 가벼우며 공간에 3차원 입체 영상을 표현할 수 있다는 장점이 있으나, 현재 기술적 한계에 직면해 있다. 3차원의 정보 표현을 위해서는 사용자가 바라보는 각도를 고려해야 한다. 표현하는 영상이 시청 위치 및 각도별 정보를 많이 포함할수록 홀로그램 디스플레이에서 더 자연스러운 입체감을 구현할 수 있다. 하지만 공간적으로 연속적인 정보를 표현하기 위해서는 기존 2차원의 평면 영상 대비 표현해야 하는 정보량이 급격히 증가하며, 디스플레이의 해상도도 기존보다 대폭 증가해야 한다. 따라서 기존 홀로그램 디스플레이 구현 연구는 영상이 표현될 수 있는 영역을 좁게 제한하거나 관찰하는 위치를 고정하여 정보량을 제한하는 등의 방법에 머물러 있는 실정이다.
앞서 예를 든 기술들의 문제를 해결하기 위한 하나의 방법으로 현대의 디스플레이 기술들의 장점을 결합한 공간 디스플레이를 생각해 볼 수 있다. 예를 들어 스마트글래스와 홀로그램 디스플레이를 조합하면, 사용자가 착용한 스마트글래스가 현재 사용자의 위치와 시선을 분석하여 전송하고, 디스플레이는 그 순간 필요한 정보만을 표시하여 정보 처리량을 크게 줄일 수 있을 것으로 기대된다. 또한 단일 사용자 환경에서는 정보 처리에 인공지능 기술을 적용하여 사용자의 움직임이 예측되는 범위 내에서 정보를 미리 계산하여 처리량을 줄일 수 있다. 사용자가 늘어나는 경우에는 각도별 정보의 중복성을 고려하여 불필요한 정보량을 줄이고 정보 처리 방식을 최적화하는 방식으로 문제를 해결할 수 있을 것이다. 이때, 홀로그램 디스플레이가 스트레처블 형태로 구현된다면 평상시에는 작은 크기를 유지하다 필요시에만 큰 부피의 공간 영상을 표시하는 것도 가능할 것이다.
공간 디스플레이 기술이 구현되면 화면과 주변 환경과의 경계가 낮아지면서 스크린을 통해 가상과 현실을 자유롭게 넘나들 수 있는 혼합현실(Mixed Reality)을 구현할 수 있게 될 것이다. 우리가 공간을 활용하는 방식이 근본적으로 변화할 것이며 교육, 의료, 엔터테인먼트, 건설, 제조 등의 산업 전반에 걸쳐 혁신적인 변화를 일으킬 수 있을 것으로 기대된다.
최근의 이상기후는 화석 연료 사용으로 발생한 온실가스가 주원인이며 이를 해결하기 위해 신재생에너지가 주목받고 있다. 현재 태양 전지의 에너지 변환 효율은 다중접합 기술을 이용할 경우 최대 47.6%에 이르는데, 이를 더 높이기 위해 다중 엑시톤 생성, 무한대 pn 접합, 메타물질(metamaterial)을 이용한 광자 분리, 극저온 전자 제어 등 다양한 방향으로 연구가 이루어지고 있다. 대안적 방법을 고민한다면 이론상으로는 60%의 효율이 가능할 수도 있지만, 이를 현실적으로 구현하는 것은 쉽지 않다. 변환효율 60% 기술을 개발하기 어려운 이유가 무엇이며, 이를 달성하기 위해 반드시 해결해야 할 과제는 무엇일까?
폭염, 큰 가뭄, 거대 산불 등 최근 빈번한 이상기후들은 지구온난화의 결과다. 지구온난화는 화석 연료를 사용하면서 만들어진 온실가스가 지구의 온도를 점차 상승시키면서 나타나는 현상이다. 이를 해결하기 위해서는 화석연료를 사용하지 않고, 온실가스를 배출하지도 않는 신재생에너지 기술을 사용해야 한다. 태양전지 기술은 무한한 태양 에너지를 이용하여 전기를 생산하는, 지구 온난화 문제의 해결을 위한 가장 중요한 기술로 알려져 있다.
태양전지를 이용하여 전기를 생산할 때에 가장 중요하게 고려되는 부분은 에너지 변환 효율이다. 태양전지의 변환효율이 높으면 매우 작은 크기에서도 많은 양의 전기를 생산할 수 있기 때문에, 경제적인 측면에서 강점을 가질 수 있게 된다. 탄소중립이라는 목표를 달성하기 위해서는 2050년까지 75테라와트(TW)의 태양 전지가 필요하다고 추산된다. 그러나 현재 지구상에 설치된 태양전지는 1TW에 불과한 수준으로 향후 많은 투자가 요구된다. 태양전지의 에너지 변환효율을 극적으로 높일 수 있다면 태양전지의 설치량을 획기적으로 줄일 수 있을 것으로 기대된다.
태양전지에서 p-타입과 n-타입 반도체를 접합하여 만든 단일 접합기술로 얻어낼 수 있는 변환효율의 이론적 최대치는 Shockley-Queisser 한계에 따라 33%이고, 현재 가장 높은 효율을 나타내는 단일 접합 갈륨비소(GaAs) 태양전지는 29.1%의 효율을 보이고 있다. 단일 접합 태양전지를 여러 층으로 다중 접합하여 쌓는다면 효율을 높일 수 있는데, 이 다중 접합기술을 이용하여 47.6%의 변환효율을 기록한 사례가 최근에 보고된 바 있다.
다중 엑시톤 생성 기술인 MEG(multi exciton generation)를 이용하면 광자 한 개를 흡수하여 여러 개의 전자를 발생시킬 수 있다. 반도체 흡수체가 흡수하는 전 파장에서 한 개의 광자로 두 개의 전자를 생성할 수 있다면, 전류밀도가 두 배가 되기 때문에 태양전지의 효율은 이론적으로 60%까지도 높아질 수 있다. 그러나, 다중 엑시톤 생성 기술은 에너지가 큰 광자만 가능하기 때문에 흡수할 수 있는 빛의 전 파장영역에서 다중 엑시톤을 생성하는 것은 현실적으로 어렵다. 이를 해결하기 위해서는 기존의 사고방식을 뛰어넘는 새로운 혁신적인 기술이 등장해야 한다.
무엇보다 빛을 최대한 활용하는 것이 중요하다. 최고의 효율로 빛을 이용하는 대표적인 사례는 우리 주변에서 흔히 볼 수 있는 광합성이다. 식물에서 일어나는 광합성은 반응이 일어나는 센터와 빛을 모아 에너지를 만들어내는 센터가 구분되어 있다. 빛을 모으고 에너지로 전환하는 효율이 거의 100%에 가깝다는 점에서 빛을 완벽하게 활용하는 사례로 볼 수 있다. 이러한 면에서 광합성은 인류가 달성하지 못한 상온 양자의 에너지 결맞음 현상의 현실판이라고 이야기되기도 한다. 태양전지가 광합성처럼 빛을 활용할 수 있다면 손실을 최소화한 높은 효율의 전기 생산이 가능할 것이다.
이런 사고방식을 바탕으로 태양으로부터 다양한 파장에서 각각 다른 에너지를 가지는 모든 광자들을 흡수하여 여러 개의 전자가 생성되도록 하려면, 각각의 광자에 최적화된 태양전지의 설계가 필요하다. 야구 경기에서 타자를 예로 들면, 투수가 다른 운동량을 가지는 10개의 공들을 던진다고 할 때, 즉각적으로 각각의 운동량에 맞추어서 10개의 홈런을 쳐야 하는 것과 같다.
서로 다른 에너지를 가지는 광자들을 모두 활용하기 위한 방법 중 하나로 무한대의 pn 접합(pn junction)을 고려해볼 수 있다. 무한대의 접합을 이용한다면 이론적으로는 광전자들을 모두 활용할 수 있다. 이전에 발표된 논문에 따르면 이와 같은 방법으로 이론적으로 80%까지 효율을 낼 수 있다. 그러나 pn 접합을 무한히 쌓아 올린다는 것은 현실적으로 불가능하다. 이를 현실에서 구현하기 위해서는 그래핀과 같은 2D 물질을 이용하는 방법이 있을 수 있다. 즉, 2D 물질을 수많은 층으로 쌓아서 공간적으로 잘 제어한다면 퀀텀닷(quantum dot)과 같이 3차원적으로 수 나노미터 안에 광(전)자를 가둬놓고 에너지를 모두 활용할 수 있다. 이 방법은 재료의 성질 자체를 변화시키지 않으면서 공간을 효과적으로 제어함으로써 새로운 물리 현상이나 상호작용을 발견하여 이용하는 것이다.
다음으로 고려해 볼 수 있는 방법은 다른 에너지 영역대를 가진 광자들을 시공간적으로 분리해 이용하는 것이다. 이를 위해서는 랜덤하게 빗방울처럼 쏟아지는 광자들을 빠르게 계층적으로 분리할 수 있어야 한다. 여기에 더하여 양자적 관점에서 물리 현상들을 접목시켜 손실을 최소화할 수 있는 방법을 찾아야 한다. 이는 빛으로 인해 새롭게 만들어진 전자의 상태정보를 바탕으로 최적의 경로로 전류를 만들 수 있어야 하고, 또한 최적의 상태를 가지기 위한 광자의 역할에 대해서도 알아야 한다는 것을 의미한다. 소재적인 관점에서는 광자의 분리를 위해 메타물질(metamaterial)을 이용하는 것을 고려할 수 있다. 메타물질은 일종의 렌즈와 같은 역할을 할 수 있기 때문에 광자를 시간과 공간, 그리고 에너지 차원과 같이 다차원의 계층적으로 쉽게 분리할 수 있을 것으로 기대된다.
또 다른 기술적 대안으로 극저온 혹은 액체질소 수준의 온도에서 전자의 상태를 제어하는 것이다. 굉장히 낮은 온도에서는 전자의 들뜬 상태(excited state)가 더 오래 지속되며 이를 이용하여 더 높은 에너지로 여기(excitation)시킬 수 있다. 뿐만 아니라 극저온에서는 결정의 격자 진동에 의한 에너지 손실이 감소하기 때문에 효율의 증가를 기대할 수 있다.
이외에도 800나노미터의 파장을 가지는 광자의 에너지를 400나노미터 파장의 광자가 가지는 에너지로 변환하는 상향 광변환(upconversion) 기술도 중요한 대안이 될 수 있다. 이를 이용한다면 한 개의 광자로도 2개의 전자를 만들어 낼 수 있는 다중 엑시톤 생성기술(MEG)이 가능해진다. 하지만 이는 에너지 보존법칙에 의한 한계점을 가지고 있기에 더 깊은 고찰이 필요한 것으로 보인다.
추가적으로 태양전지에서 발생하는 열에너지를 이용하여 효율을 높이는 방법도 고민할 수 있다. 보통의 태양전지 기판은 검은색을 띠고 있어 빛을 잘 흡수하면서도 엔트로피 법칙에 의해 흡수한 빛의 일부를 열에너지의 형태로 전환한다. 열에너지로 전환된 빛에너지를 전기 에너지를 만든다면 더 높은 효율이 가능할 것이다. 현재 연구되고 있는 열에너지를 전기에너지로 바꾸는 기술, 그리고 열전(thermoelectric)현상에 기반하여 열을 이용하여 전자의 흐름을 만들어내는 재료를 활용할 수 있다면 더 높은 효율을 기대할 수 있다.
결론적으로 변환효율 60%라는 획기적인 태양전지 기술을 만들어내기 위해서는 다양한 관점에서 도전적인 연구가 이루어져야 한다.
최근 생성형 인공지능의 비약적 발전으로 일반인공지능(AGI; artificial general intelligence)과 초지능(super intelligence)에 대한 관심과 우려가 빠르게 확산되고 있다. 이와 관련하여 여러 가지 중요한 질문들에 대해 지금부터 답을 준비해야 한다. 과연 일반인공지능과 초지능이 등장하는 때가 얼마나 빨리 올 것인가? 일반 인공지능이 도래한다면, 인공지능과 인간의 평화로운 공존을 위해서는 어떠한 대비가 필요할까? 무엇보다도 일반인공지능이 인간의 통제를 벗어나고 있다는 징후를 포착할 수 있는 방법이 있을까?
최근 ChatGPT와 SORA와 같은 생성형 인공지능의 급격한 성장으로 인해 2030년대에 일반인공지능(AGI; Artificial General Intelligence)이 등장할 것이라는 주장이 힘을 얻고 있다. 많은 인공지능 연구자들은 일반인공지능이 머지않아 개발될 것으로 확신하고 있고, 일부 전문가들은 일반인공지능이 실현되고 나면 곧이어 초지능(super intelligence)도 출현할 것으로 예견하고 있다.
일반인공지능은 보통 스무 살 인간의 지능수준을 갖는 인공지능으로 정의되며, 초지능은 IQ 6000을 넘는 지능으로 묘사된다. 인간과 같은, 혹은 인간보다 더 똑똑한 인공지능이 탄생할 경우, 인간은 이 기술과 어떻게 공존할 수 있을까?
일반인공지능이나 초지능과의 공존 문제를 고민하기에 앞서 무엇보다 일반인공지능의 정의에 대해 합의된 공감대가 만들어질 필요가 있다. 이 정의가 분명하지 않은 상태에서는 일반인공지능의 도래 가능성과 시점에 대한 예측, 나아가 일반인공지능이 야기하는 문제의 성격 자체가 달라질 수 있기 때문이다. 공학적 관점에서 인공지능의 ‘일반성’은 학습 데이터에 포함되지 않은 새로운 데이터나 작업을 처리할 수 있는 능력을 의미한다. 반면 과학철학이나 인지과학의 관점에서 바라보는 지능의 일반성은 자신이 처해 있는 환경에서 당면한 여러 종류의 문제를 해결해 나갈 수 있는 능력을 의미한다. 만약 지능의 일반성을 과학철학과 인지과학의 관점처럼 개체가 환경에 적응하는 방식으로 문제를 해결하는 것으로 정의한다면, 물리세계와 연결할 로보틱스 분야의 발전 속도가 빠르지 않기 때문에 일반인공지능은 인공지능 분야의 전문가들이 예상하는 것보다는 다소 늦게 도래할 것으로 예상할 수 있다. 따라서 일반인공지능과의 공존에 대한 고민이 의미가 있기 위해서는 무엇보다 일반인공지능에 대한 명확한 정의를 세우는 일이 중요하고, 이것 자체가 중요한 그랜드 퀘스트다.
포괄적인 의미에서 일반인공지능이 도래한다고 할 때, 인간과의 공존에서 가장 심각한 이슈는 무엇보다 일자리 문제가 될 것이다. 일반인공지능이 가져올 대표적인 혜택은 무엇보다 효율성이며, 앞으로 더 많은 분야에서 반복적이고 시간이 많이 소요되는 작업이 자동화될 것이다. 그 덕분에 인간은 더 고차원적이고 기존에 존재하지 않던 많은 새로운 작업에 시간을 쓸 수 있을 것으로 기대된다. 인공지능의 일자리 대체는 단순작업에만 한정되지 않을 것이다. 그동안 인공지능으로 인해 운송 및 물류와 같은 단순 노동과 관련한 직업이 가장 먼저 대체될 가능성이 크다고 생각되었으나, 최근에는 창작 관련 직업들조차 인공지능으로 인해 위험에 처해 있다. 따라서 일반인공지능의 등장은 단순작업에서 고급창작까지 인간의 일에 대한 고민을 더 높은 불확실성 속으로 밀어 넣게 될 것이다.
일자리 문제뿐만 아니라, 일반인공지능이 가져다줄 효율성의 이면에는 인간과의 공존을 근본적으로 저해하는 여러 문제가 숨어 있다. 우선, 일반인공지능을 지향하는 인공지능 개발의 지속가능성 문제가 있다. 지금까지의 인공지능은 에너지 문제와 희토류 채굴의 문제와 같은 현실적인 자원의 한계를 고려하지 않고 발전해 왔다. 그러나 최근 막대한 연산 능력이 요구되는 생성형 인공지능 서비스가 확대되면서 데이터센터의 운용과 냉각에 막대한 전력이 사용되고 있다. 이와 같은 상황이 지속된다면 에너지 공급의 지속가능성뿐만 아니라 이로 인해 발생하는 환경적 영향도 감당하기 어려울 것으로 전망된다.
일반인공지능과 인간의 안정적인 공존을 위한 또 한 가지 중요한 고려사항으로 인공지능의 윤리성과 공정성 문제가 있다. 현재의 인공지능은 인간이 생성한 데이터를 기반으로 학습하기 때문에 우리 세계의 다양한 편견과 불공정성을 그대로 물려받을 가능성이 크다. 그리고 현재는 정확한 원칙을 입력하고 피드백을 제공하는 것으로 이 문제를 어느 정도 해결할 수 있다. 실제로 OpenAI 등은 인간과 인공지능이 공존할 수 있도록 인간의 피드백을 통한 강화 학습 기술을 활용하고 있음을 밝힌 바 있다. 그러나 일반인공지능이 도래할 경우, 이들은 더이상 인간의 피드백을 필요로 하지 않고, 스스로 데이터를 수집, 분석, 판단하면서 능력을 높여갈 것이다. 이러한 상황에서 인간이 제공하는 원칙과 피드백을 강제할 방법이 있는지 의문스럽다. 또한, 현재의 최첨단 인공지능 기술발전은 소수의 회사에 의해 폐쇄적으로 진행되고 있으며 개방적인 오픈소스 진영과의 성능 차이도 시간이 갈수록 커져 가고 있다. 폐쇄적으로 개발되는 일반인공지능은 그 과정에서 어떤 데이터들과 레이블이 활용되었는지, 어떤 방향을 지향하고 있는지 등 제3자가 투명하게 검증할 수 없다는 점에서 그 우려는 점점 커지고 있다.
인간과 일반인공지능의 공존이 많은 기대와 우려를 동시에 제기하고 있는 가운데, 무엇보다 사전에 인공지능이 인간의 통제를 벗어나는 순간을 포착할 수 있는 프로그램에 대한 논의가 중요하다. 인공지능이 인간의 예상을 뛰어넘는 시점이나 기준을 사전에 설정하는 것은 과학기술적으로 아직까지 어려운 과제다. 인공지능 기술은 그 복잡성으로 인해 개발자 및 연구자들에게도 블랙박스와 같기 때문이다. 알파고의 경우만 해도, 알파고 개발자들은 언제 알파고가 인간보다 바둑을 잘 두게 되었는지 알지 못했을 가능성이 높다. 그럼에도 인공지능과 인간의 공존을 위해서는 인공지능이 인간의 통제를 벗어나고 있다는 징후를 투명하게 포착하기 위한 다학제적 합의와 기술 개발이 계속해서 이루어져야 할 것이다.
일반인공지능의 등장은 인류에게 양날의 검으로 작용할 수 있다. 일반인공지능과 초지능의 가능성과 징후에 대한 예측, 이들이 미래에 가져올 변화 및 대응 방안에 대한 논의는 인공지능과 인간의 공존을 위한 필수적인 작업이자, 그랜드 퀘스트이다.