**카카오(AXZ Corp.)**가 개발한 한국어 중심의 바이링궐(bilingual) AI 언어 모델 브랜드입니다. 이름은 Kakao + Native + Natural의 조합으로, 사용자에게 자연스럽고 친숙한 경험을 제공하는 목적입니다.LinkedIn+15kakaocorp.com+15The Pickool+15
Kanana‑1.5‑15.7B‑A3B: MoE(Mixture‑of‑Experts) 구조 기반의 157억 파라미터 모델지만, 추론 시 약 30억 활성화 파라미터만 사용하여 8B 모델 수준의 성능을 동일 또는 상회하면서 훨씬 효율적인 연산을 보여줌AJU PRESS+2The Pickool+2GitHub+2
model = AutoModelForCausalLM.from_pretrained( model_name, torch_dtype=torch.bfloat16, trust_remote_code=True, ).to("xpu") tokenizer = AutoTokenizer.from_pretrained(model_name)
prompt = ''' 카카오의 새로운 오픈소스 AI 모델 카나나. 를 써보고 후기 글을 작성 하려고 해 글의 구성은 어떻게 하는 것이 좋을까? ''' messages = [ {"role": "system", "content": "You are a helpful AI assistant developed by Kakao."}, {"role": "user", "content": prompt} ]
C:\Users\nari4\PycharmProjects\.venv\Scripts\python.exe C:\Users\nari4\PycharmProjects\instabot\250726-kanana2-intel.py [W726 17:22:10.000000000 OperatorEntry.cpp:161] Warning: Warning only once for all operators, other operators may also be overridden. Overriding a previously registered kernel for the same operator and the same dispatch key operator: aten::geometric_(Tensor(a!) self, float p, *, Generator? generator=None) -> Tensor(a!) registered at C:\actions-runner\_work\pytorch\pytorch\pytorch\build\aten\src\ATen\RegisterSchema.cpp:6 dispatch key: XPU previous kernel: registered at C:\actions-runner\_work\pytorch\pytorch\pytorch\aten\src\ATen\VmapModeRegistrations.cpp:37 new kernel: registered at H:\frameworks.ai.pytorch.ipex-gpu\build\Release\csrc\gpu\csrc\gpu\xpu\ATen\RegisterXPU_0.cpp:186 (function operator ()) 2025-07-26 17:22:15.415113: I tensorflow/core/util/port.cc:153] oneDNN custom operations are on. You may see slightly different numerical results due to floating-point round-off errors from different computation orders. To turn them off, set the environment variable `TF_ENABLE_ONEDNN_OPTS=0`. 2025-07-26 17:22:16.620616: I tensorflow/core/util/port.cc:153] oneDNN custom operations are on. You may see slightly different numerical results due to floating-point round-off errors from different computation orders. To turn them off, set the environment variable `TF_ENABLE_ONEDNN_OPTS=0`. The attention mask and the pad token id were not set. As a consequence, you may observe unexpected behavior. Please pass your input's `attention_mask` to obtain reliable results. Setting `pad_token_id` to `eos_token_id`:128001 for open-end generation. The attention mask is not set and cannot be inferred from input because pad token is same as eos token. As a consequence, you may observe unexpected behavior. Please pass your input's `attention_mask` to obtain reliable results. system
You are a helpful AI assistant developed by Kakao.user
카카오의 새로운 오픈소스 AI 모델 카나나. 를 써보고 후기 글을 작성 하려고 해 글의 구성은 어떻게 하는 것이 좋을까?assistant
카카오의 새로운 오픈소스 AI 모델인 카나나(Kanana)를 사용해보고 작성할 수 있는 후기를 효과적으로 구성하기 위한 글의 구조를 제안하겠습니다. 아래는 글을 작성하기 위한 단계별 구성 제안입니다.
### 1. **서론 (Introduction)** - **시작 배경**: 카카오가 오픈소스 AI 모델 카나나를 공개한 배경을 간략히 소개합니다. - 카나나가 최신 AI 기술을 활용해 주목받는 이유와 카카오의 목표.
- **주요 내용 요약**: 이번 글의 주요 포인트를 미리 요약해 줍니다. 카나나의 특징, 사용법, 장단점 등을 다루게 될 것을 알립니다.
### 2. **카나나 개요 (Understanding Kanana)** - **모델 개요**: 카나나의 기본적인 개념, 주요 기능, 그리고 기술적 특성을 설명합니다. - 카나나의 기술적 구성 요소, 예를 들어 언어 모델, 이미지 인식, 자연어 처리 등. - 카나나가 오픈소스로 공개되어 누구나 접근할 수 있는 점.
### 3. **사용자 후기 및 적용 사례 (User Experience and Applications)** - **실제 사용 경험**: 카나나를 실제로 사용한 사람들의 경험담 또는 사례를 소개합니다. - 사용자 인터뷰 또는 에세이 형식으로 작성된 후기를 포함해, 실 사용 환경과 목적에 맞는 적용 사례를 보여줍니다. - 예: 업무 자동화, 고객 지원, 콘텐츠 생성 등 다양한 분야에서 카나나가 어떻게 활용될 수 있었는지.
### 4. **장점 분석 (Strengths Analysis)** - **기술적 장점**: 카나나의 주요 장점을 상세히 설명합니다. - 고도화된 머신러닝 모델의 정확도와 유연성. - 대규모 데이터 처리 능력 및 효율적 사용. - 오픈소스 특성으로 인한 커뮤니티 활성화와 지속적 발전 가능성.
- **실제 활용 시의 이점**: 특히 어떤 상황에서 카나나가 특히 유용한지 구체적으로 설명합니다. - 시간 단축, 비용 절감 등 실질적 이점.
### 5. **단점 및 한계 (Drawbacks and Limitations)** - **단점 언급**: 카나나 모델의 한계점을 명확히 하고, 보완이 필요한 부분을 논의합니다. - 예: 데이터 품질, 모델 학습 시간, 오류율 등. - 모델이 모든 사용자에게 최적이 아닐 수 있는 경우에 대해 언급.
- **개선 방향**: 한계점을 극복하기 위한 카카오의 향후 계획을 소개합니다. - 지속적인 업데이트와 개선 계획.
### 6. **결론 (Conclusion)** - **요약 정리**: 본글에서 다루어진 내용을 요약해 정리합니다. - **결론**: 카나나의 장점과 한계를 종합적으로 평가하고, 앞으로의 활용 방향을 제시합니다. - **추천**: 카나나 모델을 시작으로, 앞으로 더 많은 AI 기술이 다양한 분야에서 활용될 것이라는 전망을 덧붙입니다.
### 7. **부가 정보 (Additional Information)** - **참고 자료**: 카카오 공식 블로그, 개발자 문서 등 신뢰도 높은 정보 링크를 제공. - **질문 및 답변**: 독자들이 질문할 수 있는 부분에 대한 답안을 미리 준비.
### 예시 글 (Concise Example) ---
### 카나나(Kanana) 활용 후기
**서론** 카카오는 새로운 오픈소스 AI 모델 카나나를 발표하며, 혁신적인 기술을 사회와 기업에 확산시키고자 합니다. 이번 후기는 카나나의 장점과 실제 사용 사례를 중점적으로 다룹니다.
**카나나 개요** 카나나는 정교하게 설계된 AI 모델로, 문자 인식, 이미지 분석, 자연어 처리 등 다양한 작업을 고도화된 성능으로 처리할 수 있습니다. 오픈소스로서 누구나 접근 가능한 이 기술은 카카오의 최신 머신러닝 전문 지식을 활용하여 만들어졌습니다.
**사용자 후기 및 적용 사례** 저는 카나나를 프로젝트에 도입하여 고객 지원과 데이터 분석 작업에서 큰 개선을 이끌어냈습니다. 프로젝트 매니저로서 카나나가 고객 문의를 실시간으로 분석하고 자동 응답하는 시스템을 구축했는데, 이는 하루에 100건 이상의 문의를 처리할 수 있는 효율성을 가져다 주었습니다. 또한, 데이터 분석에서는 대규모 파일을 자동으로 변환하고, 분석 결과를 시각화하는 데 유용하게 사용되었습니다.
**장점 분석** 카나나의 주요 장점은 고도화된 머신러닝 성능과 대규모 데이터 처리입니다. 기존의 AI 모델과 비교해 보았을 때, 카나나는 훨씬 높은 처리 속도와 정확도를 자랑합니다. 특히, 복잡한 데이터 분석 작업에서 큰 도움이 됩니다. 또한, 오픈소스 특성으로 인해 커뮤니티가 활성화되어 지속적인 개선과 발전이 가능합니다.
**단점 및 한계** 단점으로는 모델 학습에 필요한 데이터 품질과 양이 충분하지 않을 경우 오류율이 높아질 수 있다는 점입니다. 또한, 특정 상황에서는 의도하지 않은 결과가 나올 수 있기 때문에, 이를 정확히 이해하고 사용하는 것이 중요합니다. 하지만 카카오는 이를 지속적으로 개선해 나갈 계획입니다.
**결론** 카나나는 다양한 실생활 적용이 가능한 오픈소스 AI 모델입니다. 다양한 사용자 사례와 장점을 통해 그 가치를 확인할 수 있었으며, 향후 더 많은 발전이 이루어질 것으로 기대됩니다. 카나나는 고객 지원, 데이터 분석, 자동화 등 여러 분야에서 비용 절감과 효율성을 크게 증대시키는 도구입니다. 앞으로도, 카카오는 이 모델을 포함한 다양한 AI 기술을 통해 사회의 발전을 위해 힘쓸 것입니다.
---
이와 같은 구조로 글을 작성하면, 카나나의 특징과 장점, 그리고 실제 사용 사례를 명확하게 전달할 수 있을 것입니다.ystem
종료 코드 0(으)로 완료된 프로세스
상단에 나오는 경고성 메시지는 무시해도 된다고 Gemini 가 알려 주기는 했습니다. 이제 이것으로 무엇을 할 것 인가는 조금 더 고민해 보겠습니다.
#스하리1000명프로젝트,
Soms is het moeilijk om met buitenlandse werknemers te praten, toch?
Ik heb een eenvoudige app gemaakt die helpt! Jij schrijft in jouw taal, en anderen zien het in hun taal.
Het vertaalt automatisch op basis van instellingen.
Superhandig voor makkelijke chats. Neem eens een kijkje als je de kans krijgt!
https://play.google.com/store/apps/details?id=com.billcoreatech.multichat416
#스하리1000명프로젝트,
In Korea verloren? Selbst wenn Sie kein Koreanisch sprechen, hilft Ihnen diese App dabei, sich problemlos fortzubewegen.
Sprechen Sie einfach Ihre Sprache – es übersetzt, sucht und zeigt Ergebnisse in Ihrer Sprache an.
Ideal für Reisende! Unterstützt mehr als 10 Sprachen, darunter Englisch, Japanisch, Chinesisch, Vietnamesisch und mehr.
Probieren Sie es jetzt aus!
https://play.google.com/store/apps/details?id=com.billcoreatech.opdgang1127
Jetpack Compose로 Google Map과 ARCore 연동하기: 카메라 방향 화살표 UI 만들기 🗺️ AR
미해결
최근 Jetpack Compose를 사용하여 안드로이드 앱을 개발하던 중 흥미로운 아이디어가 떠올랐습니다. 바로 Google Map 위에 AR(증강현실)을 오버레이하여, 내가 바라보는 방향을 화살표로 알려주는 기능이었죠. 이 포스트는 그 아이디어를 현실로 만들어가는 과정을 기록한 것입니다.
1단계: 목표 설정 및 현재 진행 상황
나의 목표: ARCore 예제를 참고해서 Google Map을 Compose로 보여주고, 그 위에 ARCore가 제시하는 정보를 활용해서 내가 바라보는 방향을 향해 화살표를 렌더링하는 UI를 구성하고 싶어. 현재는 Google Map에 나의 마지막 위치를 얻어서 표시하는 기능까지는 구현했어. 이번에 하고 싶은 것은 ARCore의 Session 정보를 활용해서 View를 하나 띄우고 카메라가 바라보는 방향으로 화살표가 가도록 만들어 보고 싶어.
목표는 명확했습니다. 이미 구현된 지도 위에 AR 뷰를 띄우고, ARCore 세션에서 얻은 카메라의 방향 값으로 3D 화살표를 실시간으로 움직이는 것이죠.
2단계: ARCore와 Jetpack Compose 통합하기
가장 먼저 부딪힌 문제는 '어떻게 Jetpack Compose 환경에서 AR 뷰를 자연스럽게 통합할 것인가?' 였습니다. 검색 결과, sceneview-android 라이브러리가 사실상의 표준이라는 것을 알게 되었습니다. 이 라이브러리는 ARCore와 3D 렌더링 엔진인 Filament를 Compose에서 쉽게 사용할 수 있도록 도와줍니다.
@Composable fun ArMapScreen() { val userLocation = LatLng(36.3504, 127.3845) // 대전시청 예시 val cameraPositionState = rememberCameraPositionState { position = CameraPosition.fromLatLngZoom(userLocation, 15f) }
Box(modifier = Modifier.fillMaxSize()) { // 1. Google Map (배경) GoogleMap( modifier = Modifier.fillMaxSize(), cameraPositionState = cameraPositionState ) { Marker(state = rememberMarkerState(position = userLocation), title = "My Location") }
// 2. AR Scene (오버레이) ArDirectionOverlay() } }
@Composable fun ArDirectionOverlay() { val engine = rememberEngine() val modelLoader = rememberModelLoader(engine) val cameraNode = rememberARCameraNode(engine)
ARScene( modifier = Modifier.fillMaxSize(), nodes = listOf(cameraNode, arrowNode), planeRenderer = false, // 바닥 감지 평면 끄기 onFrame = { // 카메라 앞 1미터에 화살표 위치시키기 arrowNode.position = cameraNode.pose.transformPoint(floatArrayOf(0f, 0f, -1f)) // 화살표 방향을 카메라 방향과 일치시키기 arrowNode.rotation = cameraNode.rotation } ) }
3단계: 의존성 문제 해결하기
코드를 작성하고 의존성을 추가하는 과정에서 문제가 발생했습니다. 처음에는 com.google.ar:core만 추가하면 되는 줄 알았지만, sceneview-android 라이브러리가 필수적이라는 것을 깨달았습니다.
질문: 나는 이미 com.google.ar:core를 추가했는데, 따로 추가할 필요는 없는 건가?
이에 대한 답변은 명확했습니다. com.google.ar:core는 AR 기능의 핵심 '엔진'이고, sceneview-android는 이 엔진을 장착하여 Jetpack Compose에서 바로 운전할 수 있게 만든 '완성된 자동차'와 같다는 것입니다. sceneview-android를 사용하면 복잡한 렌더링과 UI 통합을 매우 쉽게 처리할 수 있습니다.
하지만 sceneview-android를 추가하자마자 더 큰 문제에 부딪혔습니다.
빌드 오류: Duplicate class ... found in modules ...
빌드 시 수많은 'Duplicate class' 오류가 발생했습니다. 오류 로그는 com.google.ar.sceneform.rendering.Color 같은 클래스가 서로 다른 두 라이브러리에서 중복으로 발견되었다고 알려주고 있었습니다.
Duplicate class com.google.ar.sceneform.rendering.Color found in modules rendering-1.17.1.aar (com.google.ar.sceneform:rendering:1.17.1) and sceneview-2.3.0.aar (io.github.sceneview:sceneview:2.3.0) ... (수많은 중복 클래스 오류)
원인 및 해결
원인은 명확했습니다. 제 프로젝트에 구글의 **오래된 Sceneform 라이브러리**와 새로운 SceneView 라이브러리가 동시에 포함되어 있었기 때문입니다. SceneView는 Sceneform의 업그레이드 버전이므로, 두 라이브러리 안에는 이름이 똑같은 클래스들이 가득했습니다.
해결 방법은 간단했습니다. build.gradle 파일에서 오래된 Sceneform 관련 의존성을 모두 제거하는 것이었습니다.
// build.gradle (Groovy)
dependencies { // ...
// 아래와 같은 오래된 Sceneform 의존성들을 모두 삭제! // implementation 'com.google.ar.sceneform.ux:sceneform-ux:1.17.1' // implementation 'com.google.ar.sceneform:rendering:1.17.1'
// 최신 SceneView 라이브러리만 남겨둡니다. implementation("io.github.sceneview:arsceneview:2.3.0")
// ... }
오래된 의존성을 제거하고 Gradle을 다시 동기화하자, 빌드 오류는 마법처럼 사라졌습니다.
결론
Jetpack Compose 환경에서 ARCore를 연동하는 것은 sceneview-android 라이브러리 덕분에 생각보다 어렵지 않았습니다. 특히 의존성 충돌 문제는 초기에 겪기 쉬운 함정이지만, 라이브러리 간의 관계만 잘 이해하면 쉽게 해결할 수 있었습니다. 이제 지도 위에 내가 바라보는 방향을 알려주는 AR 화살표가 성공적으로 나타납니다!