1
00:00:00,000 --> 00:00:02,000
안녕하세요, 환영합니다.
2
00:00:02,000 --> 00:00:06,600
오늘은 꽤 흥미로운 주제 하나를 같이 들여다보려고 합니다.
3
00:00:06,600 --> 00:00:11,500
잠깐 상상해 보세요. 여러분 앞에 문서 더미가 있고, 수 시간 분량의 영상이 있어요.
4
00:00:11,500 --> 00:00:14,700
그래요, 아니면 그냥 흥미로운 웹페이지 하나만 있어도 되고요.
5
00:00:14,700 --> 00:00:19,600
그리고 이제, 그 모든 걸 한 번에, 많아야 5분 만에
6
00:00:19,600 --> 00:00:22,600
진짜 상호작용적인 학습 경험으로
7
00:00:22,600 --> 00:00:29,100
개인 튜터 역할을 하는 인공지능이 진행하는 그런 경험으로 바꾼다고 상상해 보세요.
8
00:00:29,100 --> 00:00:34,000
그게 바로 Startik이라는 기술이 내세우는, 아주 야심 찬 약속입니다.
9
00:00:34,000 --> 00:00:38,000
지금 우리 앞에는 최신 버전 2.0을 설명하는 문서들이 놓여 있고,
10
00:00:38,000 --> 00:00:41,900
오늘 우리의 임무는, 이 엔진 후드 아래에 뭐가 들어 있는지 직접 확인해 보는 거예요.
11
00:00:41,900 --> 00:00:44,200
맞아요, 마케팅 멘트 수준을 조금 넘어서서요.
12
00:00:44,200 --> 00:00:49,299
그렇죠. 이 약속을 하나씩 해부해서 정말 설득력이 있는지 살펴볼 겁니다.
13
00:00:49,299 --> 00:00:52,799
그리고 이 약속은, 말 그대로 딱 알맞은 시점에 나온 겁니다.
14
00:00:52,799 --> 00:00:55,500
문제는, 교육 쪽에 있는 사람이라면 다 알죠.
15
00:00:55,500 --> 00:01:00,099
한쪽에는 완전히 업무에 치여 있는 교육자들이 있습니다.
16
00:01:00,099 --> 00:01:03,099
좋은 콘텐츠는 많지만 전부 폴더 속에 잠자고 있죠.
17
00:01:03,099 --> 00:01:05,199
PDF, 예전 녹화 영상들 같은 것들요.
18
00:01:05,199 --> 00:01:10,199
맞아요. 그걸 흥미로운 무언가로 바꾸는 데는 엄청난 시간이 듭니다.
19
00:01:10,199 --> 00:01:13,199
그리고 다른 한쪽에는 지루해하는 학습자들이 있죠.
20
00:01:13,199 --> 00:01:16,199
이 사람들은 상호작용을 원하고, 개인화된 경험을 원합니다.
21
00:01:16,199 --> 00:01:19,800
Startik은 바로 이 두 가지 문제를 동시에 해결하려고 합니다.
22
00:01:19,800 --> 00:01:21,300
그럼, 시작해 보죠.
23
00:01:21,300 --> 00:01:25,800
출발점은 이미 존재하는 콘텐츠를 변환한다는 아이디어입니다.
24
00:01:25,800 --> 00:01:29,800
자료를 보면 이 부분이 아주 명확해요. 단지 영상만 얘기하는 게 아닙니다.
25
00:01:29,800 --> 00:01:34,300
오디오 파일, PDF나 Word 같은 문서에서 출발할 수도 있고,
26
00:01:34,300 --> 00:01:35,800
심지어 그냥 웹페이지 한 장에서도 가능합니다.
27
00:01:35,800 --> 00:01:40,300
네, 다재다능함이 첫 번째 기둥인 것처럼 보입니다.
28
00:01:40,300 --> 00:01:45,800
그런데 진짜 흥미로워지는 지점은, 그걸 ‘무엇으로’ 바꾸느냐예요.
29
00:01:45,800 --> 00:01:49,300
단순히 일반적인 온라인 강의를 하나 만드는 얘기가 아닙니다.
30
00:01:49,300 --> 00:01:53,300
문서에는 계속해서 적응형, 사실상 끝이 없는 퀴즈가 언급되고 있고,
31
00:01:53,300 --> 00:01:57,300
거기에다 심지어, AI와 토론까지 생성할 수 있다는 가능성까지 나옵니다.
32
00:01:57,300 --> 00:02:02,300
저는 특히, 한 문서를 바탕으로 AI와 토론을 한다는 이 아이디어가 눈에 띄더라고요.
33
00:02:02,300 --> 00:02:04,300
이게 도대체 어떻게 작동할 수 있을까요?
34
00:02:04,300 --> 00:02:08,300
정말 중요한 질문입니다. 그게 바로 이들의 핵심 가치 제안이기 때문이죠.
35
00:02:08,300 --> 00:02:11,300
아이디어는, ‘콘텐츠의 묘지’를 끝내겠다는 겁니다.
36
00:02:11,300 --> 00:02:13,300
교육자 입장에선 엄청난 얘기죠.
37
00:02:13,300 --> 00:02:18,300
하지만 토론 기능에 대해선, AI가 이기려고 드는 말싸움으로 상상하면 안 됩니다.
38
00:02:18,300 --> 00:02:20,300
목표는 어디까지나 교육적입니다.
39
00:02:20,300 --> 00:02:21,300
그렇군요.
40
00:02:21,300 --> 00:02:25,300
AI는 한 입장을 취하도록, 심지어 다소 역행하는 입장을 취하도록 설정될 수 있어요.
41
00:02:25,300 --> 00:02:29,300
그래서 학습자가 자료를 근거로 삼아 논리를 전개하도록 강제하는 거죠.
42
00:02:29,300 --> 00:02:33,300
아, 알겠습니다. 목적은 기계를 설득하는 게 아니군요.
43
00:02:33,300 --> 00:02:34,300
전혀 아닙니다.
44
00:02:34,300 --> 00:02:40,300
목표는 학습자로 하여금 자신의 생각을 구조화하고, 강의 안에서 증거를 찾게 만드는 겁니다.
45
00:02:40,300 --> 00:02:44,300
일종의 지적 시뮬레이션이네요.
46
00:02:44,300 --> 00:02:48,300
하지만 그건 동시에 또 다른, 암묵적이지만 핵심적인 질문을 불러옵니다.
47
00:02:48,300 --> 00:02:50,300
바로 자료의 품질이죠?
48
00:02:50,300 --> 00:02:53,300
맞습니다. AI가 납을 금으로 바꿀 수 있을까요?
49
00:02:53,300 --> 00:02:56,300
문서에는 이게 명시적으로 적혀 있지는 않지만, 충분히 추론할 수 있습니다.
50
00:02:56,300 --> 00:02:58,300
AI가, 세상에서 가장 뛰어난 모델이라 해도
51
00:02:58,300 --> 00:03:01,300
형편없는 문서에서 지식을 창조해 낼 수는 없거든요.
52
00:03:01,300 --> 00:03:05,300
그렇죠. 흔히 말하듯, 쓰레기가 들어가면 쓰레기가 나옵니다. 마법에도 한계가 있죠.
53
00:03:05,300 --> 00:03:09,300
이건 아주 중요한 뉘앙스입니다. 그럼 출발점이 되는 콘텐츠가 없는 사람들은요?
54
00:03:09,300 --> 00:03:13,300
그렇다고 배제되는 건 아닙니다. 이 부분을 보면 꽤 치밀하게 설계했다는 게 보여요.
55
00:03:13,300 --> 00:03:16,300
툴 안에서 강의를 바로 작성할 수 있는 기능이 있고,
56
00:03:16,300 --> 00:03:18,300
그 과정에서 Startik의 AI가 작성을 도와줍니다.
57
00:03:18,300 --> 00:03:21,300
그러니까 진입 경로가 두 개 있는 거군요.
58
00:03:21,300 --> 00:03:24,300
기존 콘텐츠를 변환하든가, 아니면 새 콘텐츠를 함께 만들든가.
59
00:03:24,300 --> 00:03:26,300
맞아요. 접근 방식이 꽤 완결적입니다.
60
00:03:26,300 --> 00:03:29,300
좋습니다. 그러면 일단 어떤 콘텐츠든 변환할 수 있다고 치고,
61
00:03:29,300 --> 00:03:32,300
이 모든 건 결국 ‘머신의 두뇌’에 달려 있습니다.
62
00:03:32,300 --> 00:03:35,300
이 Smarter Startik AI, 이 인공지능에 대해 우리는 뭘 알고 있을까요?
63
00:03:35,300 --> 00:03:40,300
그냥 이름만 바꾼 ChatGPT인지, 아니면 그 이상 뭔가가 있을까요?
64
00:03:40,300 --> 00:03:44,300
약속이 워낙 강한 만큼, 학습자의 의도를 정확하게 이해한다고까지 적혀 있습니다.
65
00:03:44,300 --> 00:03:47,300
문서 전체를 통틀어 가장 야심 찬 문장입니다.
66
00:03:47,300 --> 00:03:52,300
여기선 조심해야 합니다. ‘의도를 이해한다’는 건 AI 분야에서 일종의 성배 같은 거라서요.
67
00:03:52,300 --> 00:03:55,300
그 말은, 학습자가 애매한 질문을 던져도,
68
00:03:55,300 --> 00:04:01,300
예를 들어 “광합성 부분을 잘 못 이해했어요”라고 하면, AI가 어디서 막힌 건지 짐작한다는 걸까요?
69
00:04:01,300 --> 00:04:06,300
네. 또는 이게 그냥, 실제로는 키워드 분석을 한다는 말을 포장한 마케팅 문구에 불과한지.
70
00:04:06,300 --> 00:04:08,300
두 경우의 차이는 엄청납니다.
71
00:04:08,300 --> 00:04:12,300
그러게요. 문서에는 이와 관련된, 그 방향으로 보이는 기능이 하나 기술돼 있습니다.
72
00:04:12,300 --> 00:04:14,300
바로 자동 검색 기능입니다.
73
00:04:14,300 --> 00:04:19,299
정확성이 매우 중요할 때, AI가 단순히 일반 지식에 의존하지 않는다고 분명히 써 있어요.
74
00:04:19,299 --> 00:04:23,299
교육자가 제공한 문서들 안에서 답을 찾도록 한다는 겁니다.
75
00:04:23,299 --> 00:04:25,299
필요하면 웹에서도 찾고요.
76
00:04:25,299 --> 00:04:26,299
그렇죠.
77
00:04:26,299 --> 00:04:28,299
그리고 이건 기술적으로 아주 중요한 단서입니다.
78
00:04:28,299 --> 00:04:31,299
RAG 유형 아키텍처일 가능성이 굉장히 높거든요.
79
00:04:31,299 --> 00:04:32,299
RAG 말씀이시죠.
80
00:04:32,299 --> 00:04:34,299
답하기 ‘전에’ 자료를 불러오는 구조입니다.
81
00:04:34,299 --> 00:04:38,299
단순 검색이 아니라, 문서에서 가져온 정보를 실제 추론 과정에 통합합니다.
82
00:04:38,299 --> 00:04:40,299
이건 두 가지 이유에서 결정적입니다.
83
00:04:40,299 --> 00:04:41,299
알겠습니다.
84
00:04:41,299 --> 00:04:46,299
첫째, 그럴듯하지만 틀린 답, 소위 ‘환각’을 줄여 줍니다.
85
00:04:46,299 --> 00:04:48,299
아, 다들 한 번쯤 겪어 본 그 문제죠.
86
00:04:48,299 --> 00:04:51,299
둘째, 답변이 교육자의 콘텐츠에 확실히 기반을 두게 만들지,
87
00:04:51,299 --> 00:04:54,299
인터넷 어딘가에서 우연히 주워 온 정보에 기반하게 두지 않습니다.
88
00:04:54,299 --> 00:04:58,299
그래서, 단순히 사실을 말해 주는 챗봇 모델에서 벗어나
89
00:04:58,299 --> 00:05:03,299
사고 과정을 이해해야 하는 ‘튜터’ 모델 쪽으로 넘어가게 되는 거군요.
90
00:05:03,299 --> 00:05:04,299
정확히 그렇습니다.
91
00:05:04,299 --> 00:05:07,299
이건 ‘정답을 알려 주는 AI’와
92
00:05:07,299 --> 00:05:10,299
‘왜 그게 정답인지 이해하도록 도와주는 AI’의 차이예요.
93
00:05:10,299 --> 00:05:13,299
이게 또 문서 속의 다른 핵심 문장과 연결됩니다.
94
00:05:13,299 --> 00:05:18,299
AI가 학습 진도의 방향성을 계속해서 이해하고 있다는 부분이죠.
95
00:05:18,299 --> 00:05:19,299
그렇습니다.
96
00:05:19,299 --> 00:05:22,299
이게 바로 차별화된 학습 경험을 약속하는 부분입니다.
97
00:05:22,299 --> 00:05:25,299
AI가 고정된 게 아니라, 학습자에 맞춰 적응한다고 되어 있어요.
98
00:05:25,299 --> 00:05:28,299
어떤 학습자가 특정 개념에서 여러 번 막힌다면,
99
00:05:28,299 --> 00:05:31,299
이상적인 AI는 정의만 반복해서 읊지 않을 겁니다.
100
00:05:31,299 --> 00:05:34,299
비유를 든다든지, 다른 예시를 제시한다든지 하겠죠.
101
00:05:34,299 --> 00:05:36,299
실제 좋은 인간 튜터가 그렇게 하듯요.
102
00:05:36,299 --> 00:05:39,299
그러니까, 반응형 도구에서 진짜 ‘적응형’ 도구로 넘어가는 셈이네요.
103
00:05:39,299 --> 00:05:41,299
이론상으로는, 네. 그게 바로 약속입니다.
104
00:05:41,299 --> 00:05:44,299
그리고 꽤 영리한 부분이 하나 있는데, 바로 AI의 ‘성격’을
105
00:05:44,299 --> 00:05:46,299
교육자가 직접 조정할 수 있게 했다는 점입니다.
106
00:05:46,299 --> 00:05:49,299
답변 형식이라든지, 태도 같은 것을 설정할 수 있죠.
107
00:05:49,299 --> 00:05:52,299
네, 예를 들어 법학 강의에는 매우 학구적인 말투를 쓰게 하고,
108
00:05:52,299 --> 00:05:54,299
발표 스킬 교육에는 코치처럼 더 격려하는 톤을 쓰게 한다든가요.
109
00:05:54,299 --> 00:05:56,299
맞아요, 그런 식으로 말이죠.
110
00:05:56,299 --> 00:05:59,299
이제 자연스럽게 인터페이스, 사용자 경험 이야기를 하게 되는데요.
111
00:05:59,299 --> 00:06:00,299
그렇죠.
112
00:06:00,299 --> 00:06:02,299
세계 최고의 AI를 갖고 있다 해도,
113
00:06:02,299 --> 00:06:05,299
인터페이스가 답답하면 학습은 이뤄지지 않습니다.
114
00:06:05,299 --> 00:06:06,299
맞습니다.
115
00:06:06,299 --> 00:06:09,299
이 부분에서 문서가 강조하는 요소들을 보면,
116
00:06:09,299 --> 00:06:13,299
언뜻 사소해 보이지만 사실 굉장히 많은 걸 말해 줍니다.
117
00:06:13,299 --> 00:06:15,299
‘흐름’에 대한 집착이 느껴져요.
118
00:06:15,299 --> 00:06:17,299
빠른 응답 속도라든지,
119
00:06:17,299 --> 00:06:20,299
수식과 그래프 지원이라든지,
120
00:06:20,299 --> 00:06:22,299
그리고 아주 중요한 포인트 하나가 더 있죠…
121
00:06:22,299 --> 00:06:23,299
바로 출처 표시입니다.
122
00:06:23,299 --> 00:06:27,299
네, AI 답변에 사용된 출처를 항상 보여 준다는 거죠.
123
00:06:27,299 --> 00:06:29,299
집착이라는 표현이 딱 어울립니다.
124
00:06:29,299 --> 00:06:32,299
이들은 쓸데없는 기능 수 늘리기 경쟁을 하는 게 아니라,
125
00:06:32,299 --> 00:06:35,299
학습의 리듬을 깨뜨릴 수 있는 요소를 제거하는 데 집중합니다.
126
00:06:35,299 --> 00:06:38,299
우리가 말하는 ‘인지적 마찰’을 줄이는 거죠.
127
00:06:38,299 --> 00:06:42,299
인터페이스가 너무 성가셔서 흐름이 끊기는 바로 그 순간 말입니다.
128
00:06:42,299 --> 00:06:44,299
다들 한 번쯤 겪어 봤죠.
129
00:06:44,299 --> 00:06:46,299
엉망으로 설계된 이러닝 플랫폼의 지옥,
130
00:06:46,299 --> 00:06:49,299
강의를 듣기보다 사이트 구조 파악에 더 많은 시간을 쓰게 되는 곳들요.
131
00:06:49,299 --> 00:06:52,299
목표는 기술을 ‘보이지 않게’ 만드는 겁니다.
132
00:06:52,299 --> 00:06:56,299
이런 부분에 집중한다는 사실만으로도 이미 상당히 좋은 신호예요.
133
00:06:56,299 --> 00:06:57,299
맞습니다.
134
00:06:57,299 --> 00:06:59,299
그리고 각 기능이 분명한 문제의 답이 됩니다.
135
00:06:59,299 --> 00:07:01,299
예를 들어 수식 지원 같은 건,
136
00:07:01,299 --> 00:07:04,299
과학·공학 계열을 향한 아주 명확한 메시지죠…
137
00:07:04,299 --> 00:07:06,299
이런 플랫폼에서 늘 소외되기 쉬운 분야잖아요.
138
00:07:06,299 --> 00:07:07,299
그렇죠, 자주 그렇습니다.
139
00:07:07,299 --> 00:07:10,299
출처 표시 기능은 신뢰를 쌓기 위한 거고요.
140
00:07:10,299 --> 00:07:12,299
정보가 어디에서 왔는지, 그 근거를 보여주는 거죠.
141
00:07:12,299 --> 00:07:15,299
모바일에서 백그라운드 오디오 재생 같은 기능도 있고…
142
00:07:15,299 --> 00:07:16,299
맞아요, 그건 정말 잘 짚은 부분입니다.
143
00:07:16,299 --> 00:07:18,299
요즘 사용 패턴을 제대로 이해했다는 신호죠.
144
00:07:18,299 --> 00:07:21,299
이제는 이동하면서, 운동하면서도 강의를 들을 수 있습니다.
145
00:07:21,299 --> 00:07:23,299
학습이 일상 속에 녹아드는 겁니다.
146
00:07:23,299 --> 00:07:25,299
더 이상 삶을 멈춰 세우지 않죠.
147
00:07:25,299 --> 00:07:28,299
그리고 제 눈길을 사로잡은, 굉장히 대담한 문장 하나가 있습니다.
148
00:07:28,299 --> 00:07:30,299
정말로 야심 찬 문장이에요.
149
00:07:30,299 --> 00:07:35,299
모바일, 태블릿, 데스크톱에서 99% 이상 동일한 경험을 보장하겠다고 합니다.
150
00:07:35,299 --> 00:07:37,299
이건 엄청난 약속입니다.
151
00:07:37,299 --> 00:07:39,299
거의 위험할 정도의 공약이죠, 표현하자면.
152
00:07:39,299 --> 00:07:41,299
그렇긴 합니다.
153
00:07:41,299 --> 00:07:42,299
하지만 동시에 전략적 신호이기도 해요.
154
00:07:42,299 --> 00:07:44,299
그들의 절대적 최우선순위가 ‘유연성’이라는 의미니까요.
155
00:07:44,299 --> 00:07:47,299
보편적인 접근성이라고 할까요.
156
00:07:47,299 --> 00:07:49,299
메시지는 아주 분명합니다.
157
00:07:49,299 --> 00:07:50,299
학습은 더 이상 책상 앞에 갇혀 있는 활동이 아닙니다.
158
00:07:50,299 --> 00:07:53,299
이제 어디에서든, 언제든 이뤄져야 하는 거죠.
159
00:07:53,299 --> 00:07:56,299
그것도 품질 저하 없이요.
160
00:07:56,299 --> 00:07:58,299
스스로에게 굉장히 높은 기준을 부여한 셈입니다.
161
00:07:58,299 --> 00:08:00,299
이제 전체적인 비전을 조금 떨어져서 보면,
162
00:08:00,299 --> 00:08:03,299
사소해 보이지만 사실 중요한 디테일 하나가 다국어 지원입니다.
163
00:08:03,299 --> 00:08:06,299
20개가 넘는 국가를 지원한다고 되어 있고,
164
00:08:06,299 --> 00:08:08,299
특히 아랍어처럼
165
00:08:08,299 --> 00:08:11,299
오른쪽에서 왼쪽으로 쓰는 언어에 대한 별도 언급도 있습니다.
166
00:08:11,299 --> 00:08:12,299
이건 기술적으로도 결코 간단하지 않거든요.
167
00:08:12,299 --> 00:08:14,299
여기서, 글로벌 확장이 처음부터 설계에 녹아 있었다는 게 보입니다.
168
00:08:14,299 --> 00:08:17,299
언젠가 할 먼 미래의 프로젝트가 아니라요.
169
00:08:17,299 --> 00:08:19,299
그렇죠, 이미 전제되어 있습니다.
170
00:08:19,299 --> 00:08:20,299
맞습니다.
171
00:08:20,299 --> 00:08:24,299
이 글로벌 야망은 관리자용 대시보드 부분을 보면 더 확실해집니다.
172
00:08:24,299 --> 00:08:26,299
즉, 어드민을 위한 통합 관리 화면이죠.
173
00:08:26,299 --> 00:08:28,299
기본적인 기능들은 물론 있습니다.
174
00:08:28,299 --> 00:08:31,299
학습자 추적, 강의 관리 같은 것들이요.
175
00:08:31,299 --> 00:08:34,299
하지만 여기에서 두 가지 특이한 유형의 리포트를 언급합니다.
176
00:08:34,299 --> 00:08:36,299
분석 리포트, 그리고…
177
00:08:36,299 --> 00:08:38,299
윤리적 사용 리포트죠.
178
00:08:38,299 --> 00:08:39,299
맞습니다.
179
00:08:39,299 --> 00:08:42,299
특히 이 두 번째가 제 관심을 많이 끌었습니다.
180
00:08:42,299 --> 00:08:46,299
윤리적 사용 리포트라면, 구체적으로 어떤 모습일까요?
181
00:08:46,299 --> 00:08:48,299
AI의 편향을 감시하는 걸까요?
182
00:08:48,299 --> 00:08:50,299
아니면 학생이 부정행위를 시도하는지 여부를 보는 걸까요?
183
00:08:50,299 --> 00:08:52,299
좋은 포인트입니다.
184
00:08:52,299 --> 00:08:55,299
이건 전략적, 상업적 관점에서 해석해야 한다고 봅니다.
185
00:08:55,299 --> 00:08:56,299
오, 그런가요?
186
00:08:56,299 --> 00:09:00,299
여기서의 핵심은, ‘윤리를 정교하게 다듬겠다’는 약속보다는
187
00:09:00,299 --> 00:09:03,299
자신들을 enterprise ready, 즉 대형 고객을 위한 솔루션으로
188
00:09:03,299 --> 00:09:05,299
포지셔닝하려는 의도라고 보는 게 타당합니다.
189
00:09:05,299 --> 00:09:08,299
대학이나 대기업을 상대로 할 땐,
190
00:09:08,299 --> 00:09:10,299
상대가 교육자들뿐만이 아닙니다.
191
00:09:10,299 --> 00:09:12,299
법무팀, 컴플라이언스 담당자들과도 이야기하게 되죠.
192
00:09:12,299 --> 00:09:13,299
그렇겠네요.
193
00:09:13,299 --> 00:09:15,299
그 사람들은 데이터 보호, 추적 가능성 등에
194
00:09:15,299 --> 00:09:18,299
매우 엄격한 요구 조건을 가지고 있습니다.
195
00:09:18,299 --> 00:09:19,299
맞습니다.
196
00:09:19,299 --> 00:09:21,299
이런 주제를 다루는 리포트를 제공하겠다고 하는 건,
197
00:09:21,299 --> 00:09:23,299
Startik 쪽에서 매우 분명한 메시지를 보내는 셈입니다.
198
00:09:23,299 --> 00:09:25,299
“우리는 여러분의 제약을 이해합니다.
199
00:09:25,299 --> 00:09:27,299
우리는 신뢰할 수 있고 책임감 있는 파트너입니다.”
200
00:09:27,299 --> 00:09:29,299
상당히 강력한 세일즈 포인트네요.
201
00:09:29,299 --> 00:09:31,299
정말 강력한 판매 논리죠.
202
00:09:31,299 --> 00:09:34,299
보다 기민하지만 덜 구조화된 다른 도구들과 차별화됩니다.
203
00:09:34,299 --> 00:09:38,299
도덕적 선언이라기보다는, 성숙도에 대한 증거에 가깝습니다.
204
00:09:38,299 --> 00:09:39,299
상당히 영리한 전략입니다.
205
00:09:39,299 --> 00:09:41,299
이제 모든 퍼즐 조각을 모아 보면,
206
00:09:41,299 --> 00:09:43,299
떠오르는 그림은
207
00:09:43,299 --> 00:09:46,299
진정한 올인원 솔루션에 가깝습니다.
208
00:09:46,299 --> 00:09:49,299
정적인 콘텐츠를
209
00:09:49,299 --> 00:09:51,299
동적인 경험으로 바꾸겠다는 약속에서 출발해,
210
00:09:51,299 --> 00:09:54,299
그 엔진 역할을 하는 건 적응형을 지향하면서도
211
00:09:54,299 --> 00:09:56,299
출처에 단단히 기반을 두는 AI입니다.
212
00:09:56,299 --> 00:09:59,299
바로 이런 RAG형 아키텍처 덕분에요.
213
00:09:59,299 --> 00:10:00,299
그렇죠.
214
00:10:00,299 --> 00:10:02,299
그리고 그 모든 기능을 감싸는 건
215
00:10:02,299 --> 00:10:04,299
가능한 한 최대한 부드럽게 설계된 인터페이스이고,
216
00:10:04,299 --> 00:10:06,299
글로벌 비전과 함께
217
00:10:06,299 --> 00:10:09,299
대형 조직들에게 신뢰를 주는 포지셔닝입니다.
218
00:10:09,299 --> 00:10:13,299
게다가 이들이 내세우는 마지막 슬로건은, 정말 단순하지만 강력합니다.
219
00:10:13,299 --> 00:10:14,299
“10초 안에 시작하세요.”
220
00:10:14,299 --> 00:10:16,299
요약이 아주 간결하죠.
221
00:10:16,299 --> 00:10:18,299
그리고 이 모든 얘기는 우리를 한 가지 질문,
222
00:10:18,299 --> 00:10:21,299
마지막으로 곱씹어 볼 질문으로 이끕니다.
223
00:10:21,299 --> 00:10:23,299
듣고 있습니다.
224
00:10:23,299 --> 00:10:26,299
만약 이런 도구가 정말로 자기 약속을 지킨다면,
225
00:10:26,299 --> 00:10:29,299
정말로 어떤 문서든,
226
00:10:29,299 --> 00:10:33,299
어떤 영상이든 상호작용형 AI 튜터로 바꿀 수 있다면,
227
00:10:33,299 --> 00:10:37,299
그건 ‘교수 자료’라는 개념 자체의 정의를 바꿔 버리는 일이 됩니다.
228
00:10:37,299 --> 00:10:38,299
그렇네요.
229
00:10:38,299 --> 00:10:41,299
연구 논문 한 편, 강연 스크립트,
230
00:10:41,299 --> 00:10:43,299
연차보고서 하나까지도,
231
00:10:43,299 --> 00:10:46,299
모두가 잠재적으로
232
00:10:46,299 --> 00:10:48,299
개인화된 학습의 원재료가 될 수 있는 겁니다.
233
00:10:48,299 --> 00:10:51,299
그렇다면 교육자들이 던져야 할 질문도 달라집니다.
234
00:10:51,299 --> 00:10:53,299
이제 질문은 더 이상
235
00:10:53,299 --> 00:10:56,299
“이 개념을 가르치기 위해 나는 어떤 콘텐츠를 새로 만들어야 하지?”가 아니라,
236
00:10:56,299 --> 00:10:57,299
대신에 이런 질문이 되는 거죠.
237
00:10:57,299 --> 00:10:59,299
“우리는 어떤 대화들을,
238
00:10:59,299 --> 00:11:01,299
어떤 탐구 과정을 촉발시킬 수 있을까?
239
00:11:01,299 --> 00:11:04,299
이미 우리 주변에 넘쳐나는
240
00:11:04,299 --> 00:11:06,299
거대한 콘텐츠의 바다로부터 말이다?”
241
00:11:06,299 --> 00:11:08,299
이건 결국, 교육 패러다임 자체를 바꾸게 될
242
00:11:08,299 --> 00:11:10,299
상당히 아찔한 전환입니다.
Startik, RAG 콘텐츠를 변혁하는 AI
일반적인 약속과 해결하는 문제
- 기존 콘텐츠(PDF, 오디오, 비디오, 웹페이지)를 몇 분 만에 인터랙티브 학습 경험으로 전환
- 단순한 온라인 강의를 넘어, AI가 개인 튜터 역할을 수행
- 이중 문제에 대한 해답: 쌓여만 가는 « 잠자는 » 콘텐츠에 치인 강사와, 상호작용과 개인화를 갈망하는 학습자
콘텐츠 변환과 교육 시나리오
- 다양한 소스 지원: 오디오, 비디오, PDF, Word, 웹페이지, 또는 AI 도움을 활용한 도구 내 직접 제작
- 풍부한 활동 생성: 무한·적응형 퀴즈, AI가 이끄는 토론, 지적 시뮬레이션
- 토론에서: AI가 한 입장(때로는 반대 입장)을 취해, 학습자가 출처를 바탕으로 논증하도록 유도
- 목표: 기계와 « 이기는 것 »이 아니라, 사고를 구조화하고, 증거를 찾으며, 비판적 사고를 기르는 것
- 핵심 한계: 결과의 품질은 원본 콘텐츠의 품질에 좌우됨 (garbage in, garbage out)
Smarter Startik AI: 이해, RAG, 그리고 적응
- 지향점: 키워드가 아닌 학습자의 의도를 이해하는 것
- 자동 검색: 우선적으로 강사의 문서를 참조하고, 필요시 웹에서 추가 탐색
- RAG 아키텍처의 단서: 출처의 발췌문을 추론 과정에 통합해 환각(hallucination)을 최소화
- 답변은 무작위 인터넷이 아닌 강의 내용에 근거
- 지속적인 진행 상황 추적: 수준을 조정하고, 막혔을 때 설명 방식을 변경(비유, 예시 등)
- « 정답을 알려주는 AI »에서 « 왜 맞는지 이해하도록 돕는 AI »로의 전환
- 강사에 의한 개인화: 강의 특성에 따라 말투, 답변 형식, AI의 성격 설정
사용자 경험과 사용의 유연성
- 유동성에 집중: 응답 속도, 학습 흐름을 끊는 요소 제거
- 고급 지원: 수식, 그래프, 이공계·기술 분야에 대한 적응
- AI 답변에 출처를 항상 표시해 신뢰성과 추적 가능성 강화
- « 인지적 마찰 » 감소: 사용자는 플랫폼이 아니라 콘텐츠에 집중
- 모바일에서 백그라운드 오디오 재생 지원: 일상(이동, 운동 등)에 학습을 자연스럽게 통합
- 모바일·태블릿·PC에서 99% 이상 동일한 경험을 제공하겠다는 약속: 유연성과 보편적 접근성에 최우선
글로벌 비전, 다국어, 거버넌스
- 20개국 이상 지원, 아랍어 등 우에서 좌로 쓰는 언어 포함
- 사후 추가가 아닌, 설계 단계부터 반영된 글로벌 지향
- 완전한 대시보드: 학습자 추적, 강의 관리, 고급 분석 리포트
- 윤리적 사용에 대한 리포트: 대기업·대학의 컴플라이언스(데이터, 추적성) 요구에 대응
- 법무·컴플라이언스 담당자와 교육 담당자 모두를 안심시키는 « 엔터프라이즈 레디 » 포지셔닝
요약 및 교육 패러다임의 변화
- 올인원 솔루션: 정적 콘텐츠를 동적 경험으로 변환, 출처에 뿌리를 둔 적응형 AI 엔진, 유려한 인터페이스, 글로벌 비전과 견고한 거버넌스
- 핵심 슬로건: « 10초 안에 시작하세요 » — 단순성에 대한 약속을 함축
- 교수 자료의 재정의: 모든 문서(기사, 콘퍼런스 스크립트, 연차 보고서)가 개인화된 학습을 위한 원천 재료가 됨
- 강사에게 제기되는 질문의 전환: « 어떤 콘텐츠를 새로 만들어야 할까? »에서 « 이미 존재하는 방대한 콘텐츠의 바다에서 어떤 대화와 탐구를 촉발할까? »로
- 핵심 과제가 단순한 자료 제작이 아니라, 학습자·AI·콘텐츠 간 상호작용을 어떻게 오케스트레이션할 것인가에 놓이는 새로운 패러다임의 등장