보안이 생명인 국방, 자동차, 반도체 산업군을 위한 솔루션입니다. 외부망과 완전히 차단된 내부 서버에, 검증된 오픈소스 LLM을 기반으로 고객사 전용 sLLM(소형 언어 모델)을 구축합니다.
1. 핵심 기술: 도메인 특화 파인튜닝 (Fine-tuning)
일반적인 AI는 우리 회사의 복잡한 '요구사항 명세서'나 '레거시 코드'를 이해하지 못합니다. VWAY는 성능이 입증된 오픈소스 모델을 베이스로, 고객사의 엔지니어링 데이터를 학습(Fine-tuning)시킵니다. 이를 통해 안전 분석(Safety Analysis), 요구사항 검증, 테스트 케이스 생성, 코드 리뷰 등 특정 목적에 전문가급 성능을 발휘하는 AI를 만듭니다.
2. 정확도 향상: RAG (Retrieval-Augmented Generation) 시스템
AI가 거짓 정보를 사실처럼 말하는 '환각(Hallucination)'은 엔지니어링에서 치명적입니다. 이를 해결하기 위해 RAG(검색 증강 생성) 아키텍처를 도입했습니다.
작동 원리: AI가 답변을 생성하기 전, 사내 기술 문서 저장소(Vector DB)에서 근거가 되는 매뉴얼이나 규정을 먼저 검색(Retrieve)하고 이를 바탕으로 답변을 생성합니다.
효과: 근거 없는 창작을 막고, "참조 문서 34페이지에 따르면..."과 같이 정확한 출처를 제시합니다.
* 참고 기술: https://www.nvidia.com/en-us/glossary/retrieval-augmented-generation/
Type 2. 연동형 (API Integration AI)
"기존 자원의 극대화, 가장 빠르고 효율적인 기능 확장"
이미 사내에 GPT-4, Azure OpenAI, Claude 등 고성능 AI 모델을 도입했거나 사용 중인 기업을 위한 모델입니다. 새로운 모델을 만드는 대신, VWAY의 '엔지니어링 프롬프트 모듈'을 고객사의 AI와 API로 연결하여 즉시 기능을 구현합니다.
1. 비용 절감과 고성능의 조화
모델 학습 및 서버 구축 비용(CAPEX) 없이, 기존 AI 인프라를 그대로 활용합니다. VWAY는 고객의 요구사항(SRS 검증, 자동화 테스트 등)을 가장 잘 수행할 수 있는 최적의 프롬프트 엔지니어링과 로직을 API 형태로 제공합니다.
2. 속도 및 효율성 최적화 기술: Semantic Caching
API 연동형의 단점인 '응답 지연(Latency)'과 '토큰 비용'을 획기적으로 줄이기 위해 시맨틱 캐싱(Semantic Caching) 기술을 적용합니다.
기술 소개: 사용자의 질문을 벡터(Vector)로 변환하여 저장해 둡니다. 만약 "ISO 26262에 따른 ASIL 등급 분류해 줘"라는 질문이 들어왔을 때, 과거에 유사한(Semantic) 질문과 답변이 있었다면 AI를 거치지 않고 캐시 메모리에서 즉시 답변을 반환합니다.
효과: 답변 속도가 비약적으로 빨라지며, 불필요한 API 호출 비용을 획기적으로 절감합니다.
* 참고 기술: https://learn.microsoft.com/en-us/azure/ai-foundry/openai/concepts/prompt-engineering?view=foundry-classic
Type 1. 구축형
(On-Premise AI)
데이터 유출 제로, 우리 회사만을 위한 특수 목적 AI
보안이 생명인 국방, 자동차, 반도체 산업군을 위한 솔루션입니다. 외부망과 완전히 차단된 내부 서버에, 검증된 오픈소스 LLM을 기반으로 고객사 전용 sLLM(소형 언어 모델)을 구축합니다.
1. 핵심 기술: 도메인 특화 파인튜닝 (Fine-tuning)
일반적인 AI는 우리 회사의 복잡한 '요구사항 명세서'나 '레거시 코드'를 이해하지 못합니다. VWAY는 성능이 입증된 오픈소스 모델을 베이스로, 고객사의 엔지니어링 데이터를 학습(Fine-tuning)시킵니다. 이를 통해 안전 분석(Safety Analysis), 요구사항 검증, 테스트 케이스 생성, 코드 리뷰 등 특정 목적에 전문가급 성능을 발휘하는 AI를 만듭니다.
2. 정확도 향상: RAG (Retrieval-Augmented Generation) 시스템
AI가 거짓 정보를 사실처럼 말하는 '환각(Hallucination)'은 엔지니어링에서 치명적입니다. 이를 해결하기 위해 RAG(검색 증강 생성) 아키텍처를 도입했습니다.
작동 원리: AI가 답변을 생성하기 전, 사내 기술 문서 저장소(Vector DB)에서 근거가 되는 매뉴얼이나 규정을 먼저 검색(Retrieve)하고 이를 바탕으로 답변을 생성합니다.
효과: 근거 없는 창작을 막고, "참조 문서 34페이지에 따르면..."과 같이 정확한 출처를 제시합니다.
* 참고 기술: https://www.nvidia.com/en-us/glossary/retrieval-augmented-generation/
Type 2. 연동형
(API Integration AI)
기존 자원의 극대화, 가장 빠르고 효율적인 기능 확장
이미 사내에 GPT-4, Azure OpenAI, Claude 등 고성능 AI 모델을 도입했거나 사용 중인 기업을 위한 모델입니다. 새로운 모델을 만드는 대신, VWAY의 '엔지니어링 프롬프트 모듈'을 고객사의 AI와 API로 연결하여 즉시 기능을 구현합니다.
1. 비용 절감과 고성능의 조화
모델 학습 및 서버 구축 비용(CAPEX) 없이, 기존 AI 인프라를 그대로 활용합니다. VWAY는 고객의 요구사항(SRS 검증, 자동화 테스트 등)을 가장 잘 수행할 수 있는 최적의 프롬프트 엔지니어링과 로직을 API 형태로 제공합니다.
2. 속도 및 효율성 최적화 기술: Semantic Caching
API 연동형의 단점인 '응답 지연(Latency)'과 '토큰 비용'을 획기적으로 줄이기 위해 시맨틱 캐싱(Semantic Caching) 기술을 적용합니다.
기술 소개: 사용자의 질문을 벡터(Vector)로 변환하여 저장해 둡니다. 만약 "ISO 26262에 따른 ASIL 등급 분류해 줘"라는 질문이 들어왔을 때, 과거에 유사한(Semantic) 질문과 답변이 있었다면 AI를 거치지 않고 캐시 메모리에서 즉시 답변을 반환합니다.
효과: 답변 속도가 비약적으로 빨라지며, 불필요한 API 호출 비용을 획기적으로 절감합니다.
* 참고 기술: https://learn.microsoft.com/en-us/azure/ai-foundry/openai/concepts/prompt-engineering?view=foundry-classic