본문 바로가기
카테고리 없음

테슬라 FSD 작동 원리, 카메라만으로 자율주행하는 비전 AI 구조 총정리 (2026년)

by demonic_ 2026. 2. 9.
반응형

 

 

자율주행 자동차에는 어떤 센서가 필요할까요?

 

웨이모(Waymo)는 라이다·레이더·카메라를 모두 씁니다. 차량 지붕 위 수천만 원짜리 라이다 장비가 빙글빙글 돕니다.

 

테슬라의 대답은 다릅니다. 카메라 8대, 그게 전부입니다. 라이다 없음. 레이더 없음. 초음파 센서도 없음. 인간이 '눈' 두 개로 운전하듯, 테슬라는 카메라만으로 자율주행을 구현합니다.

 

그리고 소프트웨어는 더 극적으로 변했습니다. FSD v11까지 30만 줄이 넘던 C++ 코드가, v12부터 사실상 2,000~3,000줄로 줄었습니다. 나머지는 모두 신경망(Neural Network)이 대체했습니다. 이것이 바로 '엔드투엔드(End-to-End) AI'입니다.

 

테슬라 FSD의 작동 원리, 비전 온리 전략의 근거, 엔드투엔드 신경망 구조, 그리고 한국 출시 현황까지 완전 정리합니다.

 

 

 

목차

  1. FSD란 무엇인가 — 오토파일럿과의 차이
  2. '비전 온리' 전략: 왜 카메라만 쓰는가
  3. 카메라 8대의 배치와 역할
  4. 엔드투엔드 AI: 30만 줄 코드가 사라진 이유
  5. FSD 신경망 아키텍처 심층 분석
  6. FSD 버전별 진화: v11 → v12 → v13 → v14
  7. 하드웨어 진화: HW3 → HW4 → AI5
  8. 데이터 플라이휠: 400만 대가 만드는 학습 루프
  9. 한국 FSD 현황과 규제 환경
  10. 경쟁사 비교와 투자 포인트
  11. 마무리

 

 

 

1. FSD란 무엇인가 — 오토파일럿과의 차이

테슬라의 자율주행 기능은 세 단계로 나뉩니다.

오토파일럿 (Autopilot) — 기본 탑재

모든 테슬라 차량에 무료로 제공되는 기본 주행 보조 기능입니다. 차선 유지(오토스티어)와 앞차 따라가기(트래픽 어웨어 크루즈 컨트롤)가 핵심입니다. 고속도로에서만 작동하며, 차선 변경이나 신호등 인식은 하지 않습니다.

 

향상된 오토파일럿 (Enhanced Autopilot) — 유료 옵션

고속도로에서 자동 차선 변경, 고속도로 진입·이탈, 자동 주차, 스마트 서먼(원격 호출) 기능을 제공합니다.

 

FSD (Full Self-Driving, 감독형) — 유료 옵션

일반 도로를 포함한 거의 모든 주행 상황을 AI가 처리합니다. 신호등 인식, 교차로 통과, 비보호 좌회전, 라운드어바웃, 주차장 내 주행까지 가능합니다. 내비게이션에 목적지를 입력하면, 출발지에서 목적지까지 AI가 직접 운전합니다.

 

다만 현재는 '감독형(Supervised)'입니다. 운전자가 반드시 전방을 주시해야 하며, 언제든 직접 운전할 준비가 되어 있어야 합니다. 룸미러 상단 카메라가 운전자의 전방 주시 여부를 감시하고, 주시하지 않으면 경고가 울립니다.

 

💡 자율주행 레벨 분류: 현재 FSD는 SAE 레벨 2 (부분 자동화)입니다. 사고 시 모든 법적 책임은 운전자에게 있습니다. 테슬라의 목표는 무인 운행이 가능한 레벨 4~5이며, 사이버캡(로보택시)이 이 목표의 첫 상용화 제품입니다.

 

 

 

2. '비전 온리' 전략: 왜 카메라만 쓰는가

테슬라의 센서 역사

테슬라가 처음부터 카메라만 쓴 것은 아닙니다.

  • 2016~2021: 카메라 + 레이더 + 초음파 센서 병행
  • 2021년 5월: 모델 3/Y에서 레이더 제거 시작 (Tesla Vision 전환)
  • 2022년 10월: 초음파 센서 제거 (모든 모델)
  • 현재: 카메라만 사용 (비전 온리, Vision Only)

업계와 소비자들은 "센서를 왜 빼느냐"며 거세게 반발했습니다. 하지만 머스크는 확고했습니다.

 

비전 온리의 논리

머스크의 핵심 논거는 이렇습니다. "인간은 두 개의 눈(카메라)과 뇌(신경망)로 운전한다. 카메라 8대와 더 뛰어난 AI가 있다면, 인간보다 잘 운전할 수 있다."

 

기술적 근거를 정리하면 다음과 같습니다.

 

① 비용: 라이다 장비는 대당 수백만~수천만 원입니다. 양산이 진행되어도 카메라보다 훨씬 비쌉니다. 테슬라의 목표는 전체 차량에 자율주행을 보급하는 것이므로, 가장 저렴한 센서인 카메라가 최적입니다.

 

② 확장성: 테슬라 차량은 이미 전 세계에 890만 대 이상 판매되었습니다. 이 모든 차량에 카메라가 달려 있으므로, 별도 하드웨어 추가 없이 소프트웨어 업데이트(OTA)만으로 자율주행을 업그레이드할 수 있습니다.

 

③ 센서 퓨전의 한계: 서로 다른 센서(카메라, 레이더, 라이다)의 데이터를 융합(퓨전)하면 각 센서의 불일치와 간섭이 발생합니다. 레이더가 '유령 물체(phantom object)'를 감지해 갑자기 브레이크를 밟는 현상이 대표적이었습니다. 카메라 하나로 통일하면 이 문제가 사라집니다.

 

④ 풍부한 의미 정보: 카메라는 색상, 텍스트, 신호등 색깔, 차선 표시, 표지판 문자 등 의미론적(semantic) 정보를 직접 읽습니다. 라이다는 3D 점군(point cloud)은 뛰어나지만, '빨간 신호등'인지 '초록 신호등'인지는 구분하지 못합니다.

 

비전 온리의 약점

공정하게 말하면, 비전 온리에는 한계도 있습니다.

  • 악천후 대응: 안개, 폭우, 강한 역광에서 카메라 성능이 저하됩니다
  • 야간 시야: 어두운 환경에서 라이다 대비 불리합니다
  • 거리 측정 정확도: 카메라의 깊이 추정은 라이다의 직접 측정보다 부정확합니다

테슬라는 이를 소프트웨어의 힘으로 극복하겠다는 입장입니다. 신경망의 깊이 추정(depth estimation) 정확도가 지속적으로 향상되고 있고, 수억 마일의 실주행 데이터가 악천후 학습을 뒷받침합니다.

 

 

 

3. 카메라 8대의 배치와 역할

테슬라 차량에는 외부 카메라 8대가 360도 시야를 제공합니다. 각 카메라의 위치와 역할은 다음과 같습니다.

전방 카메라 3대 (윈드실드 상단)

메인 카메라 (Main Camera): 가장 핵심적인 카메라. 중거리 시야(약 50m~150m). 차선, 신호등, 표지판, 전방 차량 등 대부분의 주행 정보를 수집합니다.

 

광각 카메라 (Wide Camera): 넓은 시야각(약 120도). 교차로에서 좌우에서 접근하는 차량과 보행자를 포착합니다. 근거리 주변 상황 인식에 특화.

 

망원 카메라 (Narrow/Telephoto Camera): 좁은 시야각, 긴 사거리(약 250m 이상). 고속도로에서 멀리 있는 차량이나 표지판을 조기에 인식합니다.

 

측면 카메라 4대

B필러 카메라 좌/우 (Side Cameras): 운전석·조수석 B필러(앞문과 뒷문 사이 기둥)에 장착. 좌우 사각지대를 커버합니다. 차선 변경 시 옆 차량 감지에 핵심적입니다.

 

사이드 리피터 카메라 좌/우 (Side Repeater Cameras): 전면 펜더에 장착. B필러 카메라보다 더 전방의 측면을 커버합니다. 교차로 진입 시 좌우에서 오는 차량을 조기 감지합니다.

 

후방 카메라 1대

리어 카메라 (Rear Camera): 차량 뒷부분에 장착. 후진 주차, 후방 접근 차량 감지에 사용됩니다.

실내 카메라 1대

룸미러 상단에 장착된 운전자 모니터링 카메라입니다. FSD 사용 중 운전자의 전방 주시 여부, 졸음, 스마트폰 사용 등을 감시합니다.

 

 

💡 2025년 신형 모델 Y(Juniper)에는 후면 범퍼에 추가 카메라가 장착되어, 레이더·초음파 센서 제거 이후 지적되던 저속 근접 사각지대 문제를 개선했습니다.

 

 

 

 

4. 엔드투엔드 AI: 30만 줄 코드가 사라진 이유

FSD의 가장 혁명적인 변화는 v12(2023년 말 출시)에서 일어났습니다.

기존 방식: 모듈형 파이프라인 (v11까지)

전통적인 자율주행 시스템은 인지(Perception) → 계획(Planning) → 제어(Control) 세 단계로 나뉘는 모듈형 구조입니다.

  1. 인지 모듈: 카메라 영상에서 차량, 보행자, 차선, 신호등 등을 감지하고 분류합니다
  2. 계획 모듈: 감지된 객체들을 기반으로 경로를 계획합니다. "앞에 보행자가 있으니 감속한다" 같은 규칙을 엔지니어가 직접 코드로 작성합니다
  3. 제어 모듈: 계획된 경로를 따라 스티어링, 가속, 브레이크를 제어합니다

이 방식의 문제는 규칙의 한계입니다. 현실 도로에서 벌어지는 상황은 무한합니다. 공사 구간의 임시 차선, 역주행 차량, 도로 위 쓰러진 자전거, 닭 의상을 입고 횡단보도를 건너는 사람... 엔지니어가 모든 상황에 대한 규칙을 코드로 작성하는 것은 불가능합니다.

 

FSD v11까지 이 규칙 코드는 30만 줄 이상의 C++로 이루어져 있었습니다.

 

새로운 방식: 엔드투엔드 신경망 (v12부터)

v12부터 테슬라는 이 모든 것을 뒤집었습니다.

 

카메라 영상(입력)에서 곧바로 스티어링·가속·브레이크 명령(출력)을 생성하는 단일 신경망(Single Neural Network)으로 전환했습니다. '인지→계획→제어'라는 중간 단계가 사라지고, 하나의 거대한 AI가 처음부터 끝(End-to-End)까지 모든 것을 처리합니다.

 

머스크는 이렇게 설명했습니다.

"v11에는 '라운드어바웃이 있다'고 말하는 코드 한 줄도 있다. v12에는 그런 코드가 없다. 30만 줄의 C++가 사실상 없어졌다."

 

30만 줄 코드가 약 2,000~3,000줄로 줄었습니다. 남은 코드는 신경망을 활성화하고 관리하는 최소한의 래퍼(wrapper)일 뿐입니다.

 

테슬라 AI 소프트웨어 부사장 아쇽 엘루스와미(Ashok Elluswamy)는 이를 "디지털 생명체(digital living being)가 환경에서 유기적으로 정보를 흡수하고 학습하는 것"이라고 묘사했습니다.

 

머스크의 비유: "자동차용 ChatGPT"

머스크는 FSD v12를 "자동차용 ChatGPT"에 비유합니다.

  • ChatGPT는 수조 개의 텍스트 토큰을 학습해서, 질문(입력)에 대한 답변(출력)을 생성합니다
  • FSD는 수조 프레임의 주행 비디오를 학습해서, 카메라 영상(입력)에 대한 운전 명령(출력)을 생성합니다

원리는 같습니다. 인간이 직접 규칙을 써주는 대신, AI가 방대한 데이터에서 패턴을 스스로 학습합니다.

 

 

 

5. FSD 신경망 아키텍처 심층 분석

FSD의 신경망은 여러 핵심 구성요소로 이루어져 있습니다.

① 비전 인코더 (Vision Encoder)

8대 카메라의 2D 영상을 받아 특징(feature)을 추출하는 첫 번째 단계입니다. 고해상도 이미지에서 차량, 보행자, 차선, 표지판 등의 시각적 특징을 벡터로 변환합니다.

 

v14.2에서는 비전 인코더가 업그레이드되어 더 높은 해상도의 이미지를 처리하게 되었습니다. 이를 통해 응급 차량, 도로 위 장애물, 사람의 제스처(멈춤, 지나가라는 손짓 등)까지 인식합니다.

 

② BEV(Bird's Eye View) 변환

8대 카메라의 2D 영상을 하나의 3D 공간으로 통합하는 과정입니다.

각 카메라가 서로 다른 각도에서 촬영한 영상을 '새가 하늘에서 내려다보는 시점(Bird's Eye View)'으로 변환합니다. 이를 통해 AI는 차량 주변 360도의 통합된 3D 지도를 실시간으로 구성합니다.

 

③ 점유 네트워크 (Occupancy Networks)

테슬라가 라이다 없이 3D 세계를 이해하는 핵심 기술입니다.

 

차량 주변의 3D 공간을 작은 복셀(voxel, 3D 픽셀)로 나누고, 각 복셀이 '무언가로 채워져 있는지(occupied)' 또는 '비어 있는지(free)'를 신경망이 판단합니다. 이를 통해 카메라 영상만으로 라이다와 유사한 3D 공간 인식이 가능해집니다.

 

v13에서 도입된 점유 네트워크 2.0(Occupancy Networks 2.0)은 정밀도가 크게 향상되어, 도로 위 파편, 넘어진 자전거, 상자 등 비정형 장애물까지 감지합니다.

 

④ 통합 플래너 (Unified Planner)

엔드투엔드 구조의 핵심입니다. 비전 인코더와 점유 네트워크가 만든 3D 세계 표현을 받아, 직접 운전 명령을 출력합니다.

 

이전 모듈형 방식에서는 경로 계획을 위해 A* 알고리즘, 몬테카를로 트리 탐색(MCTS), 비용 함수(충돌 확률·편안함·인간 유사성 등)를 수동으로 설계했습니다. 엔드투엔드 방식에서는 이 모든 것을 신경망이 학습합니다.

 

수백만 개의 전문 운전자 비디오 클립에서 "이런 상황에서 인간은 이렇게 운전했다"는 패턴을 학습하고, 그 패턴을 바탕으로 스티어링·가속·브레이크를 결정합니다.

 

⑤ 멀티모달 입력 (v14~)

v14부터 FSD는 멀티모달 대형 모델 구조로 진화하고 있습니다.

  • 비디오: 8대 카메라의 실시간 영상
  • 차량 상태: 속도, 가속도, 스티어링 각도 등
  • 내비게이션: 목적지, 경로, 우회 정보
  • 오디오 신호: 사이렌 소리 인식 (개발 중)

이 모든 정보를 하나의 신경망이 통합 처리하여, 상황에 맞는 최적의 운전 명령을 생성합니다.

 

 

 

6. FSD 버전별 진화: v11 → v12 → v13 → v14

v11 (2023년 초): 모듈형의 끝

마지막 모듈형(규칙 기반) 버전. 30만 줄 이상의 C++ 코드. 도시 주행은 가능했지만 로봇 같은 움직임, 잦은 팬텀 브레이킹, 우유부단한 차선 변경이 문제였습니다.

 

v12 (2023년 말~2024년): 엔드투엔드 혁명

FSD 역사상 가장 큰 전환점. 규칙 기반 코드를 완전한 엔드투엔드 신경망으로 교체. 48개 신경망이 협력해 8대 카메라 영상을 처리합니다. 학습에 7만 GPU·시간, 1.5페타바이트 이상의 주행 데이터가 사용되었습니다.

결과는 극적이었습니다. 비보호 좌회전, 라운드어바웃, 복잡한 4거리 등에서 인간처럼 자연스러운 주행이 가능해졌습니다.

 

v12.5 (2024년 중반): 100배 개선

아쇽 엘루스와미에 따르면, v12.5에서 '치명적 개입 간 주행 거리(miles between critical interventions)'가 v12 대비 100배 향상되었습니다. 더 큰 AI 모델과 더 많은 파라미터를 사용.

 

v13 (2025년 초): 점유 네트워크 2.0

점유 네트워크 2.0 도입으로 3D 공간 인식 정밀도가 크게 향상. 유럽 라운드어바웃, 미국 비보호 좌회전 등 지역별 도전 과제에 특화된 개선. HW4 전용 최적화. v13에서 1,000배 개선이 목표.

 

v14 (2025년 하반기~): 10배 더 큰 모델

현재 최신 버전. 기존 대비 10배 큰 신경망 모델을 사용합니다. 원래 4배 모델을 계획했지만, 바로 10배로 건너뛰었습니다.

주요 개선사항은 다음과 같습니다.

  • 우유부단한 차선 변경 95% 감소
  • 비전 인코더 업그레이드: 고해상도 이미지 처리, 응급 차량·장애물·사람 제스처 인식
  • 비디오 압축 감소: 더 디테일한 영상을 신경망에 전달
  • "사람 같은(sentient)" 느낌의 주행: 가속·감속·스티어링이 선형적이고 자연스러움
  • 완벽한 자동 주차(Autopark): 무선 충전과 로보택시 운행에 필수적인 센티미터 단위 정밀도

 

차세대 FSD (2026년 1~2월 배포 예정)

머스크는 2026년 초 배포 예정인 차세대 FSD가 현재보다 약 10배 더 큰 모델을 사용하며, 강화학습과 추론 능력이 추가된다고 밝혔습니다. 이는 완전 무인 운행을 위한 결정적 전환점이 될 것으로 기대됩니다.

 

 

 

7. 하드웨어 진화: HW3 → HW4 → AI5

FSD의 성능은 소프트웨어만으로 결정되지 않습니다. 신경망을 실시간으로 구동할 온보드 컴퓨터(하드웨어)가 필수적입니다.

HW3 (AI3) — 2019년~

  • 성능: 약 144 TOPS
  • 설계: 테슬라 자체 (짐 켈러 주도)
  • 제조: 삼성전자 (14nm)
  • FSD 지원: v12.6.4까지 (v14 미지원)
  • 현황: 약 100만~150만 대의 기존 테슬라에 탑재. v14 업그레이드 여부 불투명

HW4 (AI4) — 2023년~

  • 성능: 약 300~500 TOPS (HW3 대비 약 2~3배)
  • 카메라: 더 높은 해상도, 넓은 다이나믹 레인지
  • 제조: 삼성전자 평택 (7nm급)
  • FSD 지원: v14.2까지 완전 지원
  • 현재 판매 중인 모든 테슬라 차량에 탑재

AI5 (HW5) — 2026년 출시 예정

  • 성능: 2,000~2,500 TOPS (HW4 대비 약 6배)
  • 특정 작업: HW4 대비 40배 빠름
  • 메모리: 9배, 대역폭: 5배 증가
  • 제조: 삼성전자 + TSMC (미국 공장, 3nm급)
  • 설계 철학: GPU·ISP 제거, AI 추론에 완전 특화

 

💡 AI5가 중요한 이유: v14의 10배 모델도 HW4에서 구동하기 빠듯합니다. AI5의 6배 연산 능력이 있어야 차세대 FSD 모델을 여유롭게 구동하고, 궁극적으로 무감독 자율주행(레벨 4)을 안전하게 실현할 수 있습니다. 사이버캡은 AI5를 탑재하고 출시될 예정입니다.

 

 

 

8. 데이터 플라이휠: 400만 대가 만드는 학습 루프

테슬라 FSD의 가장 큰 경쟁 우위는 기술 자체가 아니라 데이터입니다.

세계 최대의 자율주행 데이터셋

전 세계 약 890만 대의 테슬라 차량이 매일 도로를 달리며 카메라로 주변을 촬영합니다. 이 중 FSD 활성 사용자만 약 110만 명(2025년 말 기준). 누적 주행 거리는 92억 km를 넘었습니다.

웨이모의 전용 로보택시 플릿은 수천 대 수준입니다. 테슬라는 그 수천 배의 차량에서 데이터를 수집합니다.

 

데이터 플라이휠 구조

  1. 데이터 수집: 수백만 대 차량이 다양한 도로·날씨·교통 상황에서 주행 영상을 생성
  2. 자동 라벨링: AI가 자동으로 데이터에 라벨(태그)을 부여. 수동 라벨링 대비 지수적으로 빠름
  3. 모델 학습: 엔비디아 GPU + 도조 슈퍼컴퓨터로 신경망 훈련
  4. OTA 배포: 학습된 모델을 전 세계 차량에 무선 업데이트
  5. 더 나은 주행 → 더 좋은 데이터: 개선된 FSD가 더 나은 주행을 하며, 새로운 엣지 케이스 데이터를 수집
  6. 반복: 1번으로 돌아감

이 플라이휠이 빠르게 돌수록, FSD는 가속적으로 개선됩니다. 머스크가 "FSD는 사용자가 많이 탈수록 더 좋아진다"고 말하는 이유입니다.

 

한국의 전략적 가치

한국 자율주행 연구자 고 센터장에 따르면, "한국은 테슬라 FSD에 있어 최고의 학습장"입니다. 비정형 차선, 다양한 차종, 보행자와 이륜차의 빈번한 출현 등 북미보다 훨씬 복잡한 도로 환경이 FSD의 글로벌 대응력을 키우는 데 매우 유용합니다.

학습 인프라

  • GPU: 엔비디아 A100·H100 약 14,000개 이상
  • 용도 분배: GPU 4,000개는 자동 라벨링, 10,000개는 신경망 훈련
  • 슈퍼컴퓨터: 3대 운영
  • 학습 1사이클: 약 7만 GPU·시간, 1.5페타바이트 이상의 데이터 처리

 

 

 

 

9. 한국 FSD 현황과 규제 환경

한국 출시 현황

2025년 11월 23일, 테슬라는 한국에 감독형 FSD를 정식 배포했습니다. 북미에 이어 7번째 국가입니다.

  • 적용 차량: 북미 공장 생산 HW4 탑재 모델 S, 모델 X
  • 옵션 가격: 904만 3,000원
  • 배포 방식: OTA(무선 소프트웨어 업데이트)
  • 소프트웨어 버전: v14.1.4 (2025.32.8.20)
  • 대상 차량 수: 약 1,000대 수준
  • 비즈니스 모델 전환: 2026년 2월 14일부터 일시불 구매 종료, 월 구독제 전용으로 전환

적용 제한

중국 상하이 기가팩토리에서 생산된 모델 3·모델 Y는 FSD 미적용입니다. 이 차량들은 HW4가 탑재되어 있지만, 한국에서 가장 많이 팔린 테슬라 모델이라 소비자 불만이 큽니다.

 

국토부에 따르면, 모델 3·Y에 감독형 FSD가 적용되려면 UNECE WP29 국제 기준 발효, 국내 기준 개정, 안전관리체계 검토 등을 거쳐야 하며, 2027년 이후에나 가능할 것으로 전망됩니다.

 

규제 논란

한미 FTA 자기인증 이슈: 미국에서 생산·인증된 차량은 한국 인증 없이 연간 25,000대까지 수입 가능합니다. 테슬라·캐딜락 등 미국 완성차는 최신 자율주행 기능을 빠르게 들여오는 반면, 현대차·기아는 같은 기술을 적용해도 국내 인증을 별도로 받아야 합니다.

 

HW3 소송: FSD 옵션을 900만 원에 구매했는데 HW3 차량에는 감독형 FSD가 제공되지 않는다며, 차주 100여 명이 테슬라를 상대로 소송을 제기했습니다.

 

 

 

10. 경쟁사 비교와 투자 포인트

경쟁사 자율주행 접근법 비교

웨이모(Waymo): 라이다+레이더+카메라. 고정밀 지도(HD맵) 사전 제작. 특정 도시에서만 운영. 차량 대당 센서 비용 수천만 원. 안전성은 검증되었지만 확장성이 제한적.

 

현대차 포티투닷(42dot): '아트리아 AI(Atria AI)' 엔드투엔드 카메라 기반 자율주행. 카메라 8대 + 전방 레이더 1대. HD맵 미의존. 테슬라와 매우 유사한 접근. 2027년 양산 차량 적용 목표.

 

BYD/중국 업체: 엔비디아 Orin 칩 기반 도시 NOA(Navigation on Autopilot). 다수 중국 업체(샤오펑, 웨이라이, 화웨이 등)가 카메라+라이다 융합 방식 채택.

 

투자 포인트

① FSD 구독 매출: 110만 FSD 사용자 중 30%가 월 구독($99/월). 월 반복 매출 약 3,260만 달러. 2026년 2월부터 일시불 종료, 구독 전용으로 전환하면 반복 매출이 크게 성장할 잠재력.

 

② 로보택시 수익화: FSD 기술이 무감독 수준에 도달하면, 사이버캡 로보택시로 직접 수익을 창출합니다. 2025년 오스틴에서 무인 시험 주행 시작. 2025년 4분기까지 7,000마일 이상 무사고 기록. 2026년 4월 사이버캡 생산 시작.

 

③ FSD 라이선싱: 머스크는 다른 자동차 제조사에 FSD 기술을 라이선싱하겠다고 발표했습니다. 실현되면 소프트웨어 고마진 매출이 추가됩니다.

 

④ 데이터 해자(Moat): 890만 대 플릿에서 나오는 주행 데이터는 경쟁사가 단기간에 따라잡기 불가능한 구조적 우위입니다.

 

리스크

① 자율주행 레벨 2의 한계: 현재 FSD는 법적으로 레벨 2입니다. 사고 시 운전자 책임. 레벨 4 인증까지는 규제적·기술적 허들이 높습니다.

 

② HW3 차주 갈등: 약 100만~150만 대의 HW3 차량이 v14 미지원. 소송 리스크와 브랜드 이미지 훼손 가능성.

 

③ 비전 온리 한계: 악천후·야간 환경에서 카메라 한계가 여전. 라이다 기반 경쟁사 대비 안전성 논쟁 지속.

 

④ 규제 불확실성: 국가별 자율주행 규제가 상이하고, 유럽·한국 등에서 FSD 전면 허용까지 시간이 걸립니다.

 

⑤ 팬텀 브레이킹: v14에서 크게 줄었지만 완전히 해소되지 않았습니다. 고속도로에서 갑작스러운 제동은 안전 이슈.

 

 

 

마무리

테슬라 FSD 전략의 핵심을 세 줄로 요약합니다.

 

첫째, 비전 온리 + 엔드투엔드 AI는 자율주행의 패러다임을 바꿨습니다. 30만 줄의 규칙 코드를 신경망이 대체하면서, FSD는 "프로그래밍된 로봇"에서 "학습하는 AI"로 진화했습니다. v14의 10배 모델과 2026년 차세대 버전은 무감독 자율주행의 문턱에 서 있습니다.

 

둘째, 890만 대 플릿의 데이터 플라이휠은 경쟁사가 돈으로 살 수 없는 해자입니다. 차량이 많을수록 데이터가 많고, 데이터가 많을수록 AI가 좋아지고, AI가 좋아질수록 차량이 더 팔리는 선순환. 한국의 복잡한 도로 환경은 이 플라이휠을 가속하는 촉매입니다.

 

셋째, FSD의 진짜 가치는 소프트웨어 매출(구독·라이선싱)과 로보택시 사업에 있습니다. 110만 사용자는 시작에 불과하며, 890만 대의 88%가 아직 미개척 시장입니다. 2026년 월 구독 전용 전환과 사이버캡 생산 시작이 수익화의 변곡점이 될 것입니다.

 

FSD v14 광범위 배포, 차세대 10배 모델(2026년 1~2월), 오스틴 무인 택시 확대, 사이버캡 양산(2026년 4월) 일정을 분기별로 추적하시길 권합니다.

 

 

 

알아두면 좋은 정보:

테슬라 옵티머스 vs 삼성 레인보우 2026 | 휴머노이드 전쟁의 승자는?

 

테슬라 AI칩 자체 설계 전략, AI5·AI6·도조와 삼성 파운드리 총정리 (2026년)

 

테슬라 기가캐스팅과 언박스드 프로세스의 비밀 - 왜 자동차를 '찍어내는가'

 

테슬라 에너지 사업 분석, 메가팩·파워월·LFP 배터리 공장 총정리 (2026년)

 

테슬라 옵티머스 로봇 기술 분석, FSD 신경망 공유와 손 특허의 비밀 (2026년)

 

반응형

댓글