CNN에서 전한 뉴스이다.
텍사스 주 오스틴에 있는 연구시설에서 fMRI 장비의 막막함 속에서 등을 대고 누워 있다.
‘이건 TV에서나 하는 짓이구나’
MRI나 fMRI 검사를 받아본 사람이라면 그 소란스러움을 알 것이다. 전류가 소용돌이치며 강력한 자기장을 만들어 뇌를 세밀하게 스캔하는 것이다. 하지만 이날은 기계적인 자석 소리가 거의 들리지 않았고, 전용 이어폰을 건네받아 오디오북 ‘오즈의 마법사’의 일부를 재생하기 시작했다.
왜?
텍사스 대학교 오스틴의 신경과학자들이 획기적인 챗봇 ‘ChatGPT’와 동일한 인공지능 기술을 사용하여 뇌 활동 스캔을 단어로 변환하는 방법을 발견했기 때문이다.
이 획기적인 기술은 말하기 능력을 잃은 사람들의 의사소통에 혁명을 일으킬 수 있다. 이는 최근 몇 달 동안 개발된 AI의 선구적인 응용 사례 중 하나이며, 이 기술은 계속 발전하여 우리 삶과 사회의 모든 부분에 영향을 미칠 것으로 보인다.
텍사스 대학교 오스틴의 신경과학 및 컴퓨터 과학 조교수인 알렉산더 후트(Alexander Hoot)는 마인드 리딩이라는 말보다 이 단어가 실제로 우리가 할 수 없는 것을 상기시켜 준다고 생각한다.
후트는 이 연구의 피험자로 자원했고, fMRI 장치에서 20시간 이상 음성 클립을 들으면서 장치가 그의 뇌를 자세히 촬영했다.
인공지능 모델은 그의 뇌와 그가 듣고 있는 음성을 분석했고, 결국 그의 뇌를 보는 것만으로 그가 듣고 있는 단어를 예측할 수 있게 됐다.
연구진은 샌프란시스코에 본사를 둔 스타트업 OpenAI가 책과 웹사이트의 방대한 데이터베이스를 이용해 개발한 최초의 언어 모델 ‘GPT-1’을 사용했다. 이 모델은 모든 데이터를 분석하여 문장이 어떻게 구성되는지, 즉 본질적으로 인간이 어떻게 말하고 생각하는지를 학습했다.
연구진은 이 AI를 훈련시켜 특정 단어를 들을 때 후트와 다른 자원 봉사자들의 뇌 활동을 분석하도록 했다. 결국 AI는 뇌 활동을 모니터링하는 것만으로 후트가 무엇을 듣고 무엇을 보고 있는지 예측할 수 있게 됐다.
기계 안에서 30분 남짓한 시간을 보냈는데, AI는 ‘오즈의 마법사’ 오디오북의 일부를 들으면서 도로시가 노란 벽돌길을 걷는 모습을 묘사하고 있다는 것을 알아낼 수 없었다.
하지만 같은 음성을 듣고 있었던 후트는 AI 모델이 그의 두뇌에 훈련되어 있었기 때문에 그가 듣고 있는 음성의 일부를 정확하게 예측할 수 있었다.
이 기술은 아직 개발 중이고 큰 잠재력을 가지고 있지만, AI는 아직 우리의 마음을 쉽게 읽을 수 없다는 한계를 갖고 있다.
이 기술의 진정한 응용 가능성은 의사소통이 어려운 사람들을 돕는 데 있다.
그와 UT 오스틴의 다른 연구원들은 이 혁신적인 기술이 향후 ‘락트인 증후군’ 환자나 뇌졸중 환자 등 뇌가 작동하지만 말을 할 수 없는 사람들에게 사용될 수 있을 것으로 보고 있다.
우리의 기술은 뇌를 수술하지 않고도 이 정도의 정확도를 얻을 수 있다는 것을 처음으로 입증한 것이다. 즉, 뇌 수술을 하지 않고도 말을 못하는 사람들을 실제로 도울 수 있는 길의 첫 번째 단계이다.
획기적인 의학의 발전은 분명 좋은 소식이며, 쇠약해진 질병과 싸우는 환자들의 삶을 변화시킬 수 있지만, 이 기술이 논란의 여지가 있는 상황에 어떻게 적용될 수 있는지에 대한 의문이 제기되고 있다.
죄수들에게서 자백을 받아내기 위해 사용될까?
아니면 우리의 가장 깊고 어두운 비밀을 폭로하는 데 사용될 것인가?
후트와 그의 동료들은 현재로서는 불가능하다고 말한다.
먼저 fMRI 장비로 뇌를 스캔하고 AI 기술을 몇 시간 동안 개인의 뇌에 훈련시켜야 한다. 또한 텍사스 연구진에 따르면 피험자의 동의가 필요하다고 한다. 만약 사람이 적극적으로 음성을 듣는 것에 저항하거나 다른 생각을 한다면 뇌 스캔은 성공하지 못할 것이다.
이달 초 발표된 연구 결과 논문의 주저자인 제리 탄(Jerry Tan)은 우리는 모든 사람의 뇌 데이터는 비공개로 유지되어야 하며 우리의 뇌는 우리의 프라이버시의 마지막 프론티어 중 하나다.
뇌 디코딩 기술이 위험한 방식으로 사용되는 것에 대한 우려가 있다.
심령술이라고 하면 사물에 대한 반응과 같은, 드러내고 싶지 않은 사소한 생각을 읽어낸다는 이미지가 있다. 하지만 이런 접근방식으로는 그런 것을 얻을 수 없다. 얻을 수 있는 것은 당신이 생각하는 것과 같은 큰 아이디어이다. 누군가가 당신에게 이야기하고 있는 이야기, 당신이 머릿속으로 이야기를 하려고 한다면 그것을 얻을 수 있다.
지난 주 OpenAI CEO 샘 알트만을 포함한 생성 AI 시스템 제조업체들이 국회 의사당에 내려와 상원 위원회에서 이 강력한 기술이 가져올 위험에 대한 의원들의 우려에 대해 증언했다. 알트만은 가드레일 없는 AI의 개발은 세계에 큰 해를 끼칠 수 있다고 경고하며 의원들에게 우려를 해소할 수 있는 규제를 시행할 것을 촉구했다.
AI의 경고에 호응하듯, 탄은 우리의 생각인 ‘뇌 데이터’를 보호하기 위해 법조인들은 ‘마음의 프라이버시’를 진지하게 고려해야 한다고 언급했다.
기사원문 : CNN (2023.05.23) <How the technology behind ChatGPT could make mind-reading a reality>
On a recent Sunday morning, I found myself in a pair of ill-fitting scrubs, lying flat on my back in the claustrophobic confines of an fMRI machine at a research facility in Austin, Texas. “The things I do for television,” I thought.
Anyone who has had an MRI or fMRI scan will tell you how noisy it is — electric currents swirl creating a powerful magnetic field that produces detailed scans of your brain. On this occasion, however, I could barely hear the loud cranking of the mechanical magnets, I was given a pair of specialized earphones that began playing segments from The Wizard of Oz audiobook.
Why?
Neuroscientists at the University of Texas in Austin have figured out a way to translate scans of brain activity into words using the very same artificial intelligence technology that powers the groundbreaking chatbot ChatGPT.
The breakthrough could revolutionize how people who have lost the ability to speak can communicate. It’s just one pioneering application of AI developed in recent months as the technology continues to advance and looks set to touch every part of our lives and our society.
“So, we don’t like to use the term mind reading,” Alexander Huth, assistant professor of neuroscience and computer science at the University of Texas at Austin, told me. “We think it conjures up things that we’re actually not capable of.”
Huth volunteered to be a research subject for this study, spending upward of 20 hours in the confines of an fMRI machine listening to audio clips while the machine snapped detailed pictures of his brain.
An artificial intelligence model analyzed his brain and the audio he was listening to and, over time, was eventually able to predict the words he was hearing just by watching his brain.
The researchers used the San Francisco-based startup OpenAI’s first language model, GPT-1, that was developed with a massive database of books and websites. By analyzing all this data, the model learned how sentences are constructed — essentially how humans talk and think.
The researchers trained the AI to analyze the activity of Huth and other volunteers’ brains while they listened to specific words. Eventually the AI learned enough that it could predict what Huth and others were listening to or watching just by monitoring their brain activity.
I spent less than a half-hour in the machine and, as expected, the AI wasn’t able to decode that I had been listening to a portion of The Wizard of Oz audiobook that described Dorothy making her way along the yellow brick road.
Huth listened to the same audio but because the AI model had been trained on his brain it was accurately able to predict parts of the audio he was listening to.
While the technology is still in its infancy and shows great promise, the limitations might be a source of relief to some. AI can’t easily read our minds, yet.
“The real potential application of this is in helping people who are unable to communicate,” Huth explained.
He and other researchers at UT Austin believe the innovative technology could be used in the future by people with “locked-in” syndrome, stroke victims and others whose brains are functioning but are unable to speak.
“Ours is the first demonstration that we can get this level of accuracy without brain surgery. So we think that this is kind of step one along this road to actually helping people who are unable to speak without them needing to get neurosurgery,” he said.
While breakthrough medical advances are no doubt good news and potentially life-changing for patients struggling with debilitating ailments, it also raises questions about how the technology could be applied in controversial settings.
Could it be used to extract a confession from a prisoner?
Or to expose our deepest, darkest secrets?
The short answer, Huth and his colleagues say, is no — not at the moment.
For starters, brain scans need to occur in an fMRI machine, the AI technology needs to be trained on an individual’s brain for many hours, and, according to the Texas researchers, subjects need to give their consent. If a person actively resists listening to audio or thinks about something else the brain scans will not be a success.
“We think that everyone’s brain data should be kept private,” said Jerry Tang, the lead author on a paper published earlier this month detailing his team’s findings. “Our brains are kind of one of the final frontiers of our privacy.”
Tang explained, “obviously there are concerns that brain decoding technology could be used in dangerous ways.” Brain decoding is the term the researchers prefer to use instead of mind reading.
“I feel like mind reading conjures up this idea of getting at the little thoughts that you don’t want to let slip, little like reactions to things. And I don’t think there’s any suggestion that we can really do that with this kind of approach,” Huth explained. “What we can get is the big ideas that you’re thinking about. The story that somebody is telling you, if you’re trying to tell a story inside your head, we can kind of get at that as well.”
Last week, the makers of generative AI systems, including OpenAI CEO Sam Altman, descended on Capitol Hill to testify before a Senate committee over lawmakers’ concerns of the risks posed by the powerful technology. Altman warned that the development of AI without guardrails could “cause significant harm to the world” and urged lawmakers to implement regulations to address concerns.
Echoing the AI warning, Tang told CNN that lawmakers need to take “mental privacy” seriously to protect “brain data” — our thoughts — two of the more dystopian terms I’ve heard in the era of AI.
While the technology at the moment only works in very limited cases, that might not always be the case.
“It’s important not to get a false sense of security and think that things will be this way forever,” Tang warned. “Technology can improve and that could change how well we can decode and change whether decoders require a person’s cooperation.”