카테고리 없음

과학자들이 걱정하는 기술 인공지능(AI)

밥김치 2023. 6. 5. 16:27
반응형

4년전 4차 산업 혁명이 화제가 되었고 펜데믹 시대를 지나면서 로봇과 AI 기술은 시장에서 투자를 많이 받는 산업이 되었다.  

 

23년 5월 3일 구글을 떠난 AI대부 "제프리 힌튼" 교수는 언론지를 통한 인터뷰에서 인공지능의 위험성에 대하여 언급했다. 

구글을 떠나며 인공지능의 위험성에 대해 경고한 것이다. 

 

"빅태크 기업들이 지금처럼 경쟁을 벌이며 기술을 개발하면 인간의 통제를 벗어난 [킬러 로봇]도 나올 수 있으며, 통제할 방법이 마땅치 않다"고 우려했다. 

 

애플 공동창업자 "스티브 위즈니악"은 챗GPT 등 생성형 인공지능(AI)에 대해 "그럴 듯해 보이는 사기를 더 쉽게 만들 것" 이라며 AI에 대한 규제가 필요하다고 주장했습니다. 

워즈니악은 9일(현지시간) 영국 BBC와의 인터뷰에서 “AI는 매우 지능적이어서 누군가를 속이고 싶어하는 ‘나쁜 선수들(bad players)’도 노리고 있다”며 챗GPT와 같은 도구가 “매우 지능적인 텍스트를 생성해 사기꾼을 훨씬 더 그럴듯하게 만들 것”이라고 말하기도 했습니다. 

그는 “AI 기술이 생산되는 것을 막을 수는 없지만 이용자들이 악의적인 사기를 잘 포착할 수 있도록 더 많은 정보가 제공돼야 한다”고 덧붙였습니다. 

 

과연 인공지능(AI)는 청사진이 될까 인류의 위협이 될까 의문입니다. 


 

제프리 힌튼의 발언 이후 여러 전문가들이 인공지능(AI)에 대한 규제가 필요하다고 연이은 주장을 내놓고 있습니다. 

농경사회에서 산업사회로 발전할 때에 기술은 인간의 손에 편리한 도구를 건네주었습니다. 

지금의 기술은 상상할 수 없는 속도와 정보가 집약된 지식의 힘을 제공해 주고 있습니다. 물론 시간과 수고를 줄여 주어 편리함을 제공하는 것은 마찬가지입니다. 그 중심에 인공지능(AI)가 중요한 자리를 차지하게 될 것입니다. 

 

이러한 인공지능의 불편한 진실 우리는 어떠한 자세로 대처해야할지 생각이 많아집니다. 

 

챗GPT에게 인공지능의 위협에 대하여 물었더니 다음과 같이 대답을 해줍니다. 

 

  사람을 죽일 수 있는지 물었습니다. 

 

 

 

과한 요청이었을지 몰라, 사람을 괴롭힐 수 있는지 물었더니 "존중과 배려를 기반으로 상호작용을 진행하겠습니다"라는 친절한 답변이 돌아왔습니다. 

 

부디 터미네이터와 같은 스카이넷이 탄생하지 않기를...

 

끝으로 본 글을 고민하게 만든 영상의 일부를..

 

 

반응형