반응형
인공지능(AI)이란?
누구에게 물어보느냐에 따라 다릅니다. 1950년대에 인공 지능을 이전에는 인간 지능이 필요한 것으로 간주되었던 기계가 수행하는 모든 작업이라고 설명했습니다. 그것은 분명히 상당히 광범위한 정의이므로 어떤 것이 진정한 AI인지 아닌지에 대한 논쟁을 때때로 보게 될 것입니다. 지능을 창출한다는 것이 무엇을 의미하는지에 대한 현대적 정의는 보다 구체적입니다. Google의 AI 연구원이자 기계 학습 소프트웨어 라이브러리인 Keras의 창시자인 Francois Chollet은 지능이 시스템이 새로운 환경에 적응하고 즉흥적으로 대처하고 지식을 일반화하고 익숙하지 않은 시나리오에 적용하는 능력과 관련이 있다고 말했습니다. "지능은 이전에 준비하지 않은 작업에서 새로운 기술을 습득하는 효율성입니다."라고 그는 말했습니다. "지능은 기술 그 자체가 아닙니다. 그것은 당신이 할 수 있는 것이 아닙니다. 그것은 당신이 새로운 것을 얼마나 잘 그리고 얼마나 효율적으로 배울 수 있는지입니다." 이는 가상 비서와 같은 최신 AI 기반 시스템이 음성 인식이나 컴퓨터 비전과 같은 제한된 일련의 작업을 수행할 때 훈련을 일반화할 수 있는 능력인 '좁은 AI'를 시연한 것으로 특징지어지는 정의입니다.
일반적으로 AI 시스템은 계획, 학습, 추론, 문제 해결, 지식 표현, 인식, 동작 및 조작, 사회적 지능 및 창의성과 같은 인간 지능과 관련된 행동 중 적어도 일부를 보여줍니다. AI의 용도는 무엇입니까? AI는 오늘날 어디에서나 볼 수 있으며, 다음에 온라인에서 무엇을 사야 하는지 추천하고, Amazon의 Alexa 및 Apple의 Siri와 같은 가상 비서에게 말하는 내용을 이해하고, 사진에 있는 사람과 내용을 인식하고 , 스팸을 발견하거나, 스팸을 감지하는 데 사용됩니다. 카드 사기. AI의 다른 유형은 무엇입니까? 매우 높은 수준에서 인공 지능은 크게 두 가지 유형으로 나눌 수 있습니다. 좁은 AI Narrow AI는 오늘날 컴퓨터에서 우리 주변에서 볼 수 있는 것입니다. 즉, 명시적으로 프로그래밍되지 않은 상태에서 특정 작업을 수행하는 방법을 배우거나 학습한 지능형 시스템입니다. 이러한 유형의 머신 인텔리전스는 Apple iPhone의 Siri 가상 비서의 음성 및 언어 인식, 자율 주행 자동차의 시각 인식 시스템 또는 사용자가 좋아할 만한 제품을 제안하는 추천 엔진에서 분명하게 나타납니다. 과거에 샀다. 인간과 달리 이러한 시스템은 정의된 작업을 수행하는 방법만 배우거나 가르칠 수 있기 때문에 좁은 AI라고 합니다.
일반 AI 일반 AI는 매우 다르며 인간에게서 볼 수 있는 적응형 지능의 유형이며, 이발에서 스프레드시트 작성에 이르기까지 매우 다양한 작업을 수행하는 방법을 학습할 수 있는 유연한 형태의 지능입니다. 경험. 이것은 2001년 HAL이나 The Terminator의 Skynet과 같이 영화에서 더 흔히 볼 수 있는 일종의 AI이지만 오늘날에는 존재하지 않습니다. Narrow AI는 무엇을 할 수 있습니까? 좁은 AI를 위한 수많은 새로운 애플리케이션이 있습니다. 송유관과 같은 인프라의 육안 검사를 수행하는 드론의 비디오 피드를 해석합니다. 개인 및 비즈니스 캘린더 구성. 간단한 고객 서비스 문의에 응답합니다. 적절한 시간과 장소에 호텔을 예약하는 것과 같은 작업을 수행하기 위해 다른 지능형 시스템과 조정합니다. 방사선 전문의가 X-레이에서 잠재적인 종양을 발견하도록 돕습니다. 온라인에서 부적절한 콘텐츠에 플래그를 지정하고 IoT 장치에서 수집한 데이터에서 엘리베이터의 마모를 감지합니다. 위성 이미지에서 세계의 3D 모델 생성... 목록은 계속됩니다. 이러한 학습 시스템의 새로운 응용 프로그램이 항상 등장하고 있습니다. 그래픽 카드 설계자 Nvidia는 최근 AI 기반 시스템인 Maxine을 공개했습니다. 이 시스템을 사용하면 거의 인터넷 연결 속도에 관계없이 양질의 화상 통화를 할 수 있습니다. 이 시스템은 인터넷을 통해 전체 비디오 스트림을 전송하지 않고 발신자의 얼굴 표정과 움직임을 재현하도록 설계된 방식으로 발신자의 적은 수의 정적 이미지를 애니메이션 화하는 대신 이러한 통화에 필요한 대역폭을 10배로 줄입니다. 실시간이며 비디오와 구분할 수 없습니다. 그러나 이러한 시스템이 가진 미개척 잠재력만큼 때때로 기술에 대한 야망이 현실을 능가합니다.
적절한 사례는 컴퓨터 비전과 같은 AI 기반 시스템에 의해 뒷받침되는 자율 주행 자동차입니다. 전기 자동차 회사인 Tesla는 차량의 Autopilot 시스템이 시스템의 보다 제한적인 보조 운전 기능에서 "완전 자율 주행"으로 업그레이드되는 CEO Elon Musk의 원래 일정보다 약간 뒤처져 있습니다. 완전 자율 주행 옵션은 최근에야 출시되었습니다. 베타 테스트 프로그램의 일부로 선별된 전문 드라이버 그룹입니다. 일반 AI는 무엇을 할 수 있습니까? AI 연구원 이 2012/13년에 4개 전문가 그룹을 대상으로 실시한 설문 조사에 따르면 AGI( Artificial General Intelligence )가 2040년에서 2050년 사이에 개발될 가능성이 50%이며 2075년에는 90%로 증가합니다. 그룹은 더 나아가 Bostrom이 "거의 모든 관심 영역에서 인간의 인지 성능을 크게 능가하는 모든 지능"으로 정의하는 소위 '초지능'이 AGI 달성 후 약 30년 후에 예상될 것이라고 예측했습니다 하지만 최근 AI 전문가들의 평가는 좀 더 신중하다. 같은 현대 AI 연구 분야의 선구자들은 사회가 AGI 개발에 근접하지 못했다고 말합니다.
현대 AI 분야의 선도적인 조명에 대한 회의론과 AGI에 대한 현대의 협소한 AI 시스템의 특성이 매우 다르다는 점을 감안할 때 일반적인 인공 지능이 가까운 미래에 사회를 혼란에 빠뜨릴 것이라는 두려움에 대한 근거는 거의 없을 것입니다. 즉, 일부 AI 전문가는 인간의 뇌에 대한 제한된 이해를 고려할 때 그러한 예측이 매우 낙관적이며 AGI가 여전히 수세기 뒤에 있다고 믿습니다. AI 개발의 최근 랜드마크는 무엇입니까? 현대의 협소한 AI는 특정 작업을 수행하는 것으로 제한될 수 있지만, 전문 분야 내에서 이러한 시스템은 때때로 초인적인 성능을 발휘할 수 있으며, 경우에 따라 본질적으로 인간으로 간주되는 특성인 뛰어난 창의성을 보여주기도 합니다. 결정적인 목록을 작성하기에는 너무 많은 혁신이 있었지만 몇 가지 주요 사항은 다음과 같습니다. 2009년 Google은 자율 주행 Toyota Prius가 각각 100마일씩 10회 이상의 여행을 완료할 수 있음을 보여줌으로써 사회를 무인 차량으로 향하는 길로 인도했습니다. 2011년 컴퓨터 시스템 IBM Watson이 미국 퀴즈 쇼 Jeopardy! 에서 우승하면서 전 세계적으로 헤드라인을 장식했습니다. , 쇼가 배출 한 최고의 선수 중 두 명을 이겼습니다. 쇼에서 우승하기 위해 Watson은 종종 몇 분의 1초 만에 사람이 제기한 질문에 답하기 위해 처리되는 방대한 데이터 저장소에 대한 자연어 처리 및 분석을 사용했습니다. 2012년에 또 다른 돌파구가 등장하여 이전에는 어떤 기계에도 너무 복잡하다고 생각되었던 수많은 새로운 작업을 처리할 수 있는 AI의 잠재력을 예고했습니다. 그 해에 AlexNet 시스템은 ImageNet 대규모 시각 인식 챌린지에서 결정적인 승리를 거두었습니다. AlexNet의 정확도는 이미지 인식 대회에서 경쟁 시스템에 비해 오류율을 절반으로 줄였습니다.
AlexNet의 성능은 수십 년 동안 존재해 왔지만 무어의 법칙에 의해 가능해진 아키텍처의 개선과 병렬 처리 능력의 도약으로 인해 마침내 그 잠재력을 실현하고 있는 기계 학습 모델인 신경망에 기반한 학습 시스템의 힘을 보여주었습니다. 컴퓨터 비전을 수행하는 기계 학습 시스템의 능력도 그 해 헤드라인을 장식했습니다. Google은 인터넷에서 가장 좋아하는 고양이 사진을 인식하는 시스템을 훈련시켰습니다. 대중의 관심을 끈 머신 러닝 시스템의 효능에 대한 다음 시연은 2016년 Google DeepMind AlphaGo AI가 고대 중국 게임인 Go에서 인간 그랜드마스터를 이긴 것이었습니다. 체스의 약 20개에 비해 바둑은 턴당 약 200개의 이동이 가능합니다. 바둑 게임을 진행하는 동안 최상의 플레이를 식별하기 위해 사전에 각각을 검색하는 가능한 동작이 너무 많아 계산적 관점에서 볼 때 비용이 너무 많이 듭니다. 대신 AlphaGo는 3,000만 개의 바둑 게임에서 인간 전문가가 수행한 동작을 딥 러닝 신경망에 입력하여 게임 방법을 훈련했습니다. 이러한 딥 러닝 네트워크를 교육하는 데는 시간이 매우 오래 걸릴 수 있으며 시스템이 최상의 결과를 얻기 위해 모델을 점진적으로 개선함에 따라 방대한 양의 데이터를 수집하고 반복해야 합니다. 그러나 최근에 Google은 자체적으로 "완전히 무작위" 게임을 한 다음 학습하는 시스템인 AlphaGo Zero로 훈련 프로세스를 개선했습니다. 구글 딥마인드 CEO 데미스 하사비스(Demis Hassabis)도 체스와 장기를 마스터한 알파고 제로의 새 버전을 공개했다. 그리고 AI는 계속해서 새로운 이정표를 넘어 질주하고 있습니다. OpenAI가 훈련한 시스템 이 온라인 멀티플레이어 게임인 Dota 2의 일대일 경기에서 세계 정상급 플레이어를 물리쳤습니다. 같은 해 OpenAI는 협력하고 목표를 보다 효과적으로 달성하기 위해 자신의 언어를 발명한 AI 에이전트를 만들었고, 그 뒤를 이어 협상하고 거짓말하는 페이스북 훈련 에이전트를 만들었습니다. 2020년은 AI 시스템이 생각할 수 있는 거의 모든 주제에 대해 인간처럼 쓰고 말할 수 있는 능력을 얻은 해였습니다. 줄여서 GPT-3으로 알려진 문제의 시스템은 개방형 웹에서 사용할 수 있는 수십억 개의 영어 기사에 대해 훈련된 신경망입니다. 비영리 조직인 OpenAI에서 테스트할 수 있게 된 직후부터 인터넷은 GPT-3에 공급되는 거의 모든 주제에 대한 기사를 생성하는 GPT-3의 능력으로 떠들썩했습니다.
사람이 쓴 것과 구별하라. 마찬가지로 광범위한 주제에 대한 질문에 설득력 있게 답변하고 심지어 초보 JavaScript 코더에게도 합격할 수 있는 능력으로 다른 영역에서도 인상적인 결과가 이어졌습니다. 그러나 많은 GPT-3 생성 기사가 사실적인 분위기를 풍겼지만, 추가 테스트를 통해 생성된 문장이 종종 소집을 통과하지 못했고, 표면적으로 그럴듯하지만 혼란스러운 진술과 때로는 노골적인 난센스를 제공하는 것으로 나타났습니다. 향후 서비스의 기반으로 모델의 자연어 이해를 사용하는 데 여전히 상당한 관심이 있습니다. OpenAI의 베타 API를 통해 소프트웨어로 빌드할 개발자를 선택할 수 있습니다. 또한 Microsoft의 Azure 클라우드 플랫폼을 통해 제공되는 향후 서비스에도 통합될 예정입니다. 아마도 AI의 잠재력에 대한 가장 놀라운 예는 2020년 말 구글의 주의 기반 신경망인 AlphaFold 2가 일부 사람들이 노벨 화학상을 받을 만한 가치가 있는 결과를 시연했을 때였을 것입니다. 아미노산으로 알려진 단백질의 빌딩 블록을 보고 단백질의 3D 구조를 도출하는 시스템의 능력은 질병을 이해하고 의약품을 개발하는 속도에 큰 영향을 미칠 수 있습니다. 단백질 구조 예측의 비판적 평가 대회에서 AlphaFold 2는 단백질을 확실하게 모델링하기 위한 황금 표준인 결정학에 필적하는 정확도로 단백질의 3D 구조를 결정했습니다. 결과를 반환하는 데 몇 달이 걸리는 결정학과 달리 AlphaFold 2는 몇 시간 만에 단백질을 모델링할 수 있습니다. 단백질의 3D 구조가 인간의 생물학과 질병에서 중요한 역할을 함에 따라 이러한 속도 향상은 효소가 생명공학에서 사용되는 다른 분야에서의 잠재적인 응용은 말할 것도 없고 의학의 획기적인 돌파구로 예고되었습니다. 기계 학습이란 무엇입니까? 실질적으로 지금까지 언급된 모든 성과는 최근 몇 년 동안 이 분야에서 달성한 성과의 대부분을 차지하는 AI의 하위 집합인 기계 학습에서 비롯되었습니다. 오늘날 사람들이 AI에 대해 이야기할 때 일반적으로 기계 학습에 대해 이야기합니다. 현재 부활을 즐기고 있는 기계 학습은 간단히 말해서 컴퓨터 시스템이 작업을 수행하는 방법을 프로그래밍하는 것이 아니라 작업을 수행하는 방법을 배우는 것입니다. 기계 학습에 대한 이 설명은 세계 최초의 자가 학습 시스템 중 하나 개발한 이 분야의 선구자인 Arthur Samuel이 만든 1959년으로 거슬러 올라갑니다.
학습을 위해 이러한 시스템에는 엄청난 양의 데이터가 제공되며, 음성 이해 또는 사진 캡션과 같은 특정 작업을 수행하는 방법을 학습하는 데 사용됩니다. 이 데이터 세트의 품질과 크기는 지정된 작업을 정확하게 수행할 수 있는 시스템을 구축하는 데 중요합니다. 예를 들어 집값을 예측하기 위해 기계 학습 시스템을 구축하는 경우 학습 데이터에는 부동산 크기뿐만 아니라 침실 수나 정원 크기와 같은 다른 중요한 요소가 포함되어야 합니다. 신경망이란 무엇입니까? 머신러닝 성공의 열쇠는 신경망입니다. 이러한 수학적 모델은 내부 매개변수를 조정하여 출력 내용을 변경할 수 있습니다. 신경망에는 훈련 중에 특정 데이터가 제시될 때 무엇을 내뱉어야 하는지 가르치는 데이터 세트가 제공됩니다. 구체적으로 말하자면, 네트워크는 0과 9 사이 숫자의 그레이스케일 이미지와 각 그레이스케일 이미지에 표시되는 숫자를 나타내는 이진수 문자열(0과 1)을 공급받을 수 있습니다. 그런 다음 네트워크는 높은 정확도로 각 이미지에 표시된 숫자를 분류할 때까지 내부 매개변수를 조정하여 훈련됩니다. 이 훈련된 신경망은 0에서 9 사이의 다른 그레이스케일 이미지를 분류하는 데 사용될 수 있습니다. 신경망의 구조와 기능은 뇌의 뉴런 사이의 연결에 매우 느슨하게 기반을 두고 있습니다. 신경망은 데이터를 서로 공급하는 상호 연결된 알고리즘 계층으로 구성됩니다. 데이터가 이러한 계층 사이를 통과할 때 데이터에 부여된 중요성을 수정하여 특정 작업을 수행하도록 훈련할 수 있습니다.
이러한 신경망을 훈련하는 동안 레이어 사이를 통과할 때 데이터에 첨부된 가중치는 신경망의 출력이 원하는 값에 매우 근접할 때까지 계속 변경됩니다. 그 시점에서 네트워크는 특정 작업을 수행하는 방법을 '학습'하게 됩니다. 원하는 출력은 이미지의 과일 레이블을 올바르게 지정하는 것부터 센서 데이터를 기반으로 엘리베이터가 고장 날 수 있는 시기를 예측하는 것까지 무엇이든 될 수 있습니다. 기계 학습의 하위 집합은 신경망이 막대한 양의 데이터를 사용하여 훈련되는 많은 크기의 레이어가 있는 거대한 네트워크로 확장되는 딥 러닝입니다. 이러한 심층 신경망은 음성 인식 및 컴퓨터 비전과 같은 작업을 수행하는 컴퓨터 능력의 현재 도약을 촉진했습니다. 서로 다른 강점과 약점을 가진 다양한 유형의 신경망이 있습니다. RNN(Recurrent Neural Networks)은 텍스트의 의미를 이해하는 NLP(Natural Language Processing)와 음성 인식에 특히 적합한 신경망 유형인 반면, 합성곱 신경망은 이미지 인식에 뿌리를 두고 다양한 용도로 사용됩니다. 추천 시스템 및 NLP로. 신경망의 설계도 진화하고 있습니다. 연구원들은 NLP와 같은 작업 및 주식 시장 예측에 사용되는 RNN 아키텍처의 한 유형인 장단기 기억(LSTM)이라는 보다 효과적인 형태의 심층 신경망을 개선하고 있습니다.
Google 번역과 같은 주문형 시스템에서 사용할 수 있을 만큼 빠르게 작동합니다. 다른 유형의 AI는 무엇입니까? AI 연구의 또 다른 영역은 진화 계산입니다. 그것은 다윈의 자연선택 이론에서 차용한 것입니다. 그것은 유전자 알고리즘이 주어진 문제에 대한 최적의 설루션을 진화시키려는 시도에서 세대 간의 무작위 돌연변이 및 조합을 겪는 것을 봅니다. 이 접근 방식은 AI 모델을 설계하는 데에도 사용되었으며, AI를 효과적으로 사용하여 AI를 구축하는 데 도움이 되었습니다. 신경망을 최적화하기 위해 진화 알고리즘을 사용하는 것을 신경 진화라고 합니다. 특히 데이터 과학자에 대한 수요가 종종 공급을 초과함에 따라 지능형 시스템의 사용이 더욱 보편화됨에 따라 효율적인 AI를 설계하는 데 중요한 역할을 할 수 있습니다. 이 기술은 강화 학습 문제를 위해 심층 신경망을 훈련하기 위해 유전자 알고리즘을 사용하는 방법에 대한 논문을 발표한 Uber AI Labs에서 선보였습니다. 마지막으로 전문가 시스템이 있습니다. 여기서 컴퓨터는 많은 수의 입력을 기반으로 일련의 결정을 내릴 수 있는 규칙으로 프로그래밍되어 해당 기계가 특정 영역에서 인간 전문가의 행동을 모방할 수 있습니다. 이러한 지식 기반 시스템의 예로 비행기를 조종하는 자동 조종 시스템을 들 수 있습니다. AI의 부활에 연료를 공급하는 것은 무엇입니까? 위에서 설명한 것처럼 최근 몇 년 동안 AI 연구의 가장 큰 발전은 머신 러닝 분야, 특히 딥 러닝 분야에서 이루어졌습니다. 이것은 부분적으로는 데이터의 용이한 가용성에 의해 주도되었지만 병렬 컴퓨팅 성능의 폭발적인 증가로 인해 더욱 커졌습니다.
이 기간 동안 머신 러닝 시스템을 교육하기 위해 그래픽 처리 장치(GPU) 클러스터를 사용하는 것이 더욱 보편화되었습니다. 이러한 클러스터는 기계 학습 모델 훈련을 위한 훨씬 더 강력한 시스템을 제공할 뿐만 아니라 이제 인터넷을 통해 클라우드 서비스로 널리 사용 가능합니다. 시간이 지남에 따라 Google , Microsoft , Tesla와 같은 주요 기술 회사는 머신 러닝 모델을 실행하고 최근에는 교육에 맞게 조정된 특수 칩을 사용하도록 이동했습니다. 이러한 맞춤형 칩 중 하나의 예는 소프트웨어 라이브러리를 사용하여 구축된 유용한 기계 학습 모델이 데이터에서 정보를 추론할 수 있는 속도를 가속화하는 최신 버전의 TPU(Tensor Processing Unit)입니다. 그들이 훈련받을 수 있는 것. 이 칩은 Google 번역을 뒷받침하는 모델, Google 포토의 이미지 인식 및 대중이 Google의 Tensor Flow Research Cloud를 사용하여 기계 학습 모델을 구축할 수 있는 서비스를 훈련하는 데 사용됩니다. 이 칩의 3세대는 2018년 5월 Google의 I/O 콘퍼런스에서 공개되었으며 이후 초당 100조 이상의 부동 소수점 연산(100페타플롭)을 수행할 수 있는 팟(Pod)이라는 기계 학습 강국으로 패키징 되었습니다. 이러한 지속적인 TPU 업그레이드를 통해 Google은 기계 학습 모델을 기반으로 구축된 서비스를 개선할 수 있었습니다. 예를 들어 Google 번역에서 사용되는 모델을 학습시키는 데 걸리는 시간을 절반으로 줄였습니다. 기계 학습의 요소는 무엇입니까? 언급했듯이 기계 학습은 AI의 하위 집합이며 일반적으로 지도 학습과 비지도 학습의 두 가지 주요 범주로 나뉩니다. 감독 학습 AI 시스템을 가르치는 일반적인 기술은 레이블이 지정된 많은 예제를 사용하여 AI 시스템을 교육하는 것입니다.
이러한 기계 학습 시스템에는 관심 있는 기능을 강조하기 위해 주석이 달린 방대한 양의 데이터가 제공됩니다. 이들은 개가 포함되어 있는지 여부를 나타내는 라벨이 붙은 사진이거나 '베이스'라는 단어가 음악과 관련된 것인지 물고기와 관련된 것인지를 나타내는 각주가 있는 문장일 수 있습니다. 일단 훈련되면 시스템은 이러한 레이블을 새 데이터(예: 방금 업로드된 사진의 개)에 적용할 수 있습니다. 예를 들어 기계를 가르치는 이 과정을 감독 학습이라고 합니다. 이러한 예에 레이블을 지정하는 작업은 일반적으로와 같은 플랫폼을 통해 고용된 온라인 작업자가 수행합니다. 이러한 시스템을 훈련하려면 일반적으로 막대한 양의 데이터가 필요하며 일부 시스템은 작업을 효과적으로 수행하는 방법을 배우기 위해 수백만 개의 예제를 샅샅이 뒤져야 합니다. 그러나 이는 빅 데이터 및 광범위한 데이터 마이닝 시대에 점점 더 가능해집니다. 교육 데이터 세트는 방대하고 크기가 커지고 있습니다. Google의 Open Images Dataset에는 약 900만 개의 이미지가 있으며 라벨이 지정된 비디오 저장소 YouTube-8M 은 700만 개의 라벨이 지정된 비디오에 연결되어 있습니다. 이러한 종류의 초기 데이터베이스 중 하나인 ImageNet 에는 1,400만 개 이상의 분류된 이미지가 있습니다. 거의 50,000명(대부분 Amazon Mechanical Turk를 통해 모집됨)이 2년에 걸쳐 편집하여 약 10억 개의 후보 사진을 확인, 분류 및 라벨링 했습니다. 거대한 레이블이 지정된 데이터 세트에 대한 액세스 권한을 갖는 것은 장기적으로 대량의 컴퓨팅 성능에 대한 액세스보다 덜 중요할 수도 있습니다. 최근 몇 년 동안 GAN은 레이블이 지정되지 않은 대량의 데이터와 레이블이 지정된 소량의 데이터만 필요한 기계 학습 시스템에 사용되어 이름에서 알 수 있듯이 준비하는 데 수동 작업이 덜 필요합니다. 이 접근 방식은 시스템이 오늘날 지도 학습을 사용하는 교육 시스템에 필요한 것보다 훨씬 적은 양의 레이블이 지정된 데이터를 사용하여 작업을 수행하는 방법을 배울 수 있는 준지도 학습의 사용을 증가시킬 수 있습니다. 비지도 학습 반대로 비지도 학습은 알고리즘이 데이터의 패턴을 식별하고 해당 데이터를 분류하는 데 사용할 수 있는 유사성을 찾는 다른 접근 방식을 사용합니다. 예를 들어 무게가 비슷한 과일이나 엔진 크기가 비슷한 자동차를 함께 클러스터링 할 수 있습니다. 알고리즘은 특정 유형의 데이터를 선택하기 위해 미리 설정되지 않습니다.