애플이 공개한 SHARP 오픈소스와 iOS 26의 공간 장면(Spatial Scene)은 단순한 3D 효과일까요? 이 글에서는 애플이 사진을 입체적으로 보여주기 시작한 배경을 살펴보고, ‘시각정보의 공간정보화’라는 관점에서 그 의도를 차분히 정리해봅니다.
요약
- 애플은 SHARP라는 2D→3D AI 모델을 오픈소스로 공개했습니다.
- iOS 26에서는 사진을 입체적으로 보여주는 ‘공간 장면’ 기능이 추가됐습니다.
- 기술 자체는 새롭지 않지만, 애플의 공개 방식과 타이밍은 꽤 조심스럽습니다.
- 이 글은 이를 AI 기술 경쟁이 아니라 시각정보를 다루는 방식의 변화로 바라봅니다.
- 1편에서는 관찰과 문제 제기를, 2편에서는 OS와 자동화로의 확장을 다룹니다.
목차
- 이 글을 시작하며 – AI 이야기가 아닌 이유
- SHARP 오픈소스, 그런데 왜 지금일까요?
- 사진에 공간을 담으려는 시도는 이미 오래됐습니다
- 애플은 ‘찍는 기술’이 아니라 ‘보는 방식’을 건드립니다
- iOS 26 공간 장면이 유난히 조심스러워 보이는 이유
- 1편의 결론: 애플이 먼저 보고 있는 것
- 다음 편 예고

1. 이 글을 시작하며 – AI 이야기가 아닌 이유
최근 애플이 SHARP라는 AI 모델을 오픈소스로 공개했다는 기사를 봤습니다. (기사원문)
단일 2D 사진을 기반으로 3D 장면을 만들어내는 기술이라고 하더군요. 비슷한 시기에 iOS 26에서는 사진을 살짝 입체적으로 보여주는 공간 장면(Spatial Scene) 기능도 추가됐습니다.
이 두 소식을 처음 접했을 때, 솔직한 제 첫 반응은 이랬습니다.
“기술 자체는 아주 새롭지는 않데, 애플이 이걸 꺼내는 방식은 좀 묘하네.”
그래서 이 글은 SHARP라는 AI 모델이 얼마나 뛰어난지, 또 애플의 AI 기술력이 경쟁사보다 앞서는지 비교하려는 글은 아닙니다.
대신 이런 질문을 던져보려고 합니다.
애플은 왜 지금, ‘사진을 공간처럼’ 보여주기 시작했을까요?
2. SHARP 오픈소스, 그런데 왜 지금일까요
SHARP는 단일 이미지로부터 3D 장면을 추정하는 AI 모델입니다.
컴퓨터 비전과 3D 재구성 분야에서는 꽤 오래 전부터 다뤄져 온 문제를 최신 AI 방식으로 풀어낸 사례라고 볼 수 있습니다.
여기서 눈에 띄는 지점은 두 가지입니다.
첫째, 애플이 이 모델을 오픈소스로 공개했다는 점입니다.
둘째, 정작 사용자에게는 AI 모델 이야기를 거의 하지 않았다는 점입니다.
보통 AI 기술을 강조하고 싶다면 이렇게 했을 겁니다.
- 모델 이름을 전면에 내세우거나
- 성능 수치를 비교하거나
- “온디바이스 AI” 같은 키워드를 반복하거나 말이죠
그런데 애플은 그러지 않았습니다. 대신 사용자에게 보여준 건 아주 작은 변화였습니다.
“사진이 조금 더 입체적으로 보입니다.”
3. 사진에 공간을 담으려는 시도는 이미 오래됐습니다
사실 사진에 공간 정보를 담으려는 시도는 애플만의 이야기는 아닙니다.
과거에는 라이트필드 카메라로 주목받았던 회사도 있었고,
어도비나 구글 역시 깊이(depth) 정보를 활용한 다양한 실험을 해왔습니다.
공통점은 비교적 분명했습니다.
- 기술적으로는 가능했고
- 데모도 꽤 인상적이었지만
- 일상적인 사용으로 이어지지는 못했습니다
대부분의 시도는 “신기하다”에서 멈췄고, 자주 쓰는 기능이 되지는 못했죠.
이 지점에서 애플의 접근 방식은 조금 다르게 보입니다.
4. 애플은 ‘찍는 기술’이 아니라 ‘보는 방식’을 건드립니다
SHARP는 분명 애플의 AI 기술입니다.
하지만 애플이 사용자에게 전달한 메시지는 AI 자체라기보다는 경험 쪽에 가까워 보입니다.
- 사진을 더 선명하게 만든다 ❌
- AI가 자동으로 분석한다 ❌
- 사진이 장면처럼 느껴진다 ⭕
이 지점부터 SHARP는 단순한 AI 모델이 아니라,
‘시각정보를 공간 정보로 다루려는 흐름’의 일부처럼 보이기 시작합니다.
즉, 애플이 바꾸려는 것은 사진을 처리하는 기술이 아니라,
사진을 바라보는 기본 전제일지도 모르겠습니다.
5. iOS 26 공간 장면이 유난히 조심스러워 보이는 이유
iOS 26의 공간 장면 기능은 솔직히 화려하지 않습니다.
- 움직임은 아주 미세하고
- 사용자가 직접 조작할 일도 거의 없고
- 언제든 원래 상태로 돌아갈 수 있습니다
기능만 놓고 보면 이런 생각도 듭니다.
“이게 전부라면, 조금 싱겁지 않나요?”
그런데 관점을 바꿔보면 질문이 달라집니다.
“정말 애플이 이 정도 수준의 기술만 가지고 있을까요?”
오히려 이 조심스러움 자체가 하나의 힌트처럼 느껴집니다.
6. 1편의 결론: 애플이 먼저 보고 있는 것
여기까지의 관찰을 바탕으로 한 개인적인 추론은 이렇습니다.
애플은 이미 사진을 더 입체적으로 만들 수 있는 기술을 충분히 가지고 있었을 가능성이 큽니다.
그럼에도 iOS 26에서는 아주 낮은 강도의 공간 효과만을 조심스럽게 노출했습니다.
이건 기술 검증이라기보다,
사람들이 사진이 ‘평면’이 아니라 ‘공간’으로 느껴지는 변화를
어디까지 자연스럽게 받아들이는지를 확인하는 과정처럼 보입니다.
즉, 애플이 먼저 보고 있는 것은 AI 모델의 성능이 아니라, 사람의 감각과 수용 임계치일지도 모르겠습니다.
7. 다음 편 예고
다음 편에서는 이 질문으로 넘어가 보려고 합니다.
- 왜 애플은 이렇게까지 조심스러울 수밖에 없을까요
- 그리고 ‘시각정보의 공간정보화’는
iOS와 자동화에 어떤 변화를 가져올 수 있을까요
사진을 공간처럼 다루기 시작한 OS는, 그 다음에 무엇을 가능하게 만들 수 있을까요.
👉 2편에서는 이 변화가 ‘자동화’와 어떻게 연결되는지를 이어서 정리해보겠습니다.
✅ 애플이 바라보는 모바일 자동화의 미래에 대한 생각이 궁금하다면, 👇 [아이폰/iOS] 모바일 자동화 가이드 - (총 8편 시리즈)
'AI&자동화' 카테고리의 다른 글
| [AI&자동화] 업무 자동화 전에 반드시 해야 할 질문 3가지 - 도구보다 구조와 워크플로우를 먼저 점검 (1) | 2025.12.28 |
|---|---|
| [아이폰/iOS] 애플은 왜 공간정보를 OS 자동화에 쓰려는 걸까? - 공간정보를 이해하는 OS와 자동화의 다음 단계 (2편) (0) | 2025.12.22 |
| [아이폰/iOS] 모바일 자동화 가이드 - 단축어와 앱 인텐트로 보는 자동화 구조 정리 (총 8편 시리즈) (0) | 2025.12.15 |
| [아이폰/iOS] AI의 판단능력과 앱 인텐트(App Intents) 실행이 만났을 때: 자동화의 미래 [8편] (0) | 2025.12.14 |