2025년 국내 은행 업권의 AI 기반 사업 현황

이미지
2025년 국내 은행 업권의 AI 기반 사업 현황 2025년 국내 주요 은행들은 AI 기술을 활용하여 금융 서비스의 혁신과 효율성을 극대화하고 있습니다. 각 은행은 생성형 AI, 머신러닝, XAI 등을 활용하여 고객 경험 개선, 내부 업무 자동화, 신용평가 고도화 등 다양한 영역에서 AI 기반 서비스를 도입하고 있습니다. 은행별 주요 AI 기능 및 서비스        은행 주요 기능 및 서비스 진행 일정 신한은행 - AI 뱅커 기반 ‘디지털 데스크’와 무인점포 ‘AI 브랜치’ 운영- 감정 인식 분석을 통한 금융사고 예방 - 생성형 AI 기반 투자 및 금융지식 Q&A 서비스 2024년부터 점포 확대 및 2025년 상반기까지 생성형 AI 플랫폼 구축 예정 • 생성형   AI  기반  AI  은행원 • 생성형   AI  투자 및  금융지식  Q&A  서비스 NH농협은행 - 모든 영업점에 AI 뱅커 배치 -  AI  금융상품 추천 서비스 출시 ( XAI)   XAI를 활용한 금융상품 추천 서비스- 외국인 및 고령층을 위한 상담 서비스 제공 - 기업 대출 심사  AI  도입 2024년부터 적용 시작, 2025년까지 전국 확대 • 생성형   AI  플랫폼 기반 금융서비스 KB국민은행 • AI  금융비서 서비스 베타  오픈 - ‘리브 넥스트’의 AI 금융비서 베타 서비스- KB-GPT 및 KB-AI OCR 기술 활용- 생성형 AI 금융상담 Agent 도입 • 의심거래 보고 (STR) AI  적용 2024년부터 PoC 진행, 2025년 상반기까지 상용화 예정 • 생성형   AI  플랫폼 기반 금융서비스 우리은행 - ‘우리WON뱅킹’ 내 대출 상담 확장- 이상 외화 송금 탐지 프로세스 도입 • 생성형   AI  기반 ...

MYSQL에서 제공하는 Vector Data 처리기능

이미지
  MYSQL에서 제공하는 Vector Data 처리기능 MySQL은 벡터 데이터 처리 기능을 내장하여 AI 기반 애플리케이션 개발을 지원합니다. 아래는 주요 기능과 사용 예시, 기존 벡터 DB 대비 장점을 정리한 내용입니다.     MySQL의 Vector DB 기능 1. 벡터 데이터 타입 지원 VECTOR(n) : n차원 벡터 저장 가능 (예: VECTOR(768) )[2][5]. 저장 방식 : VARBINARY 또는 리스트 형식 문자열로 4바이트 부동소수점 저장[2]. 크기 제한 : 2048~16383 차원 지원 (기본값 2048)[2].   2. 벡터 변환 함수 STRING_TO_VECTOR() : 문자열을 벡터로 변환 (예: '[1][2][3]' → 이진값)[2][5]. VECTOR_TO_STRING() : 이진 벡터를 문자열로 출력[2]. VECTOR_DIM() : 벡터의 차원 수 계산[2].   3. 유사도 계산 DISTANCE() : 코사인/유클리드/내적 유사도 계산 지원[2]. SELECT DISTANCE(embedding, '[1,2,3]' , 'COSINE' ) FROM books;     4. 벡터 연산 통합 표준 SQL 구문 : INSERT , UPDATE , JOIN 등 기존 SQL 문법과 호환[2][5]. 예시 테이블 생성 : CREATE TABLE books ( id INT PRIMARY KEY, title VARCHAR ( 60 ), embedding VECTOR( 768 ) USING VARBINARY );     사용 예시 1. 벡터 데이터 삽입 INSERT INTO books (title, embedding) VALUES ( 'AI 입문서' , STRING_TO_VECTOR( '[0.1,0.4,0.7]' ));   2. 유사도 검색 ...

Mysql - AI 구현을 위한 Vector data 처리하기

이미지
# Mysql - AI 구현을 위한 Vector data 처리하기 #  MySQL은 벡터 데이터 처리 기능을 내장하여 AI 기반 애플리케이션 개발을 지원합니다. 아래는 주요 기능과 사용 예시, 기존 벡터 DB 대비 장점을 정리한 내용입니다. MySQL의 Vector DB 기능 1. 벡터 데이터 타입 지원 VECTOR(n) : n차원 벡터 저장 가능 (예:  VECTOR(768) )[2][5]. 저장 방식 :  VARBINARY  또는 리스트 형식 문자열로 4바이트 부동소수점 저장[2]. 크기 제한 : 2048~16383 차원 지원 (기본값 2048)[2]. 2. 벡터 변환 함수 STRING_TO_VECTOR() : 문자열을 벡터로 변환 (예:  '[1][2][3]'  → 이진값)[2][5]. VECTOR_TO_STRING() : 이진 벡터를 문자열로 출력[2]. VECTOR_DIM() : 벡터의 차원 수 계산[2]. 3. 유사도 계산 DISTANCE() : 코사인/유클리드/내적 유사도 계산 지원[2]. SELECT DISTANCE (embedding, '[1,2,3]' , 'COSINE' ) FROM books; 4. 벡터 연산 통합 표준 SQL 구문 :  INSERT ,  UPDATE ,  JOIN  등 기존 SQL 문법과 호환[2][5]. 예시 테이블 생성 : CREATE TABLE books ( id INT PRIMARY KEY , title VARCHAR ( 60 ), embedding VECTOR( 768 ) USING VARBINARY ); Vector data 사용 예시 1. 벡터 데이터 삽입 INSERT INTO books (title, embedding) VALUES ( 'AI 입문서' , STRING_TO_VECTOR( '[0.1,0.4,0.7]' )); 2. 유사도 검색 SELECT title FROM books ORDER ...

LLM(Large Language Model), SLLM(Super Lightweight Language Model), SLM(Small Language Model)의 특징

이미지
    인공지능 GPT를 기준으로  LLM(Large Language Model), SLLM(Super Lightweight Language Model), SLM(Small Language Model) 의 특징을 비교하면 다음과 같습니다. 🔹  LLM (Large Language Model) ✅  특징: 수십억~수천억 개의 파라미터를 가진 대규모 AI 모델 방대한 데이터 학습으로 다양한 분야에서 높은 성능 제공 강력한 자연어 이해 및 생성 능력 보유 ✅  장점: ✔ 다양한 질문과 복잡한 작업 수행 가능 ✔ 높은 창의성과 정확성을 갖춘 응답 ✔ 문맥 유지 및 추론 능력 우수 ✅  단점: ✖ 높은 연산 비용 (고성능 GPU 필수) ✖ 응답 속도가 상대적으로 느림 ✖ 실시간 처리 및 임베디드 환경 적용 어려움 ✅  사용 사례: 🔹 ChatGPT, Bard, Claude 등 AI 챗봇 🔹 검색 엔진, 문서 생성 및 요약, 번역 🔹 코딩 보조 및 AI 도우미     🔹  SLM (Small Language Model) ✅  특징: 수천만~수억 개의 파라미터를 가진 중소형 모델 특정 도메인 또는 특정 기능에 최적화 가능 경량화된 아키텍처로 적은 자원에서도 실행 가능 ✅  장점: ✔ 특정 분야(의료, 금융, 법률 등)에 맞춤형 적용 가능 ✔ 응답 속도가 빠르며 비용 절감 가능 ✔ 로컬 환경에서도 실행 가능 ✅  단점: ✖ 일반적인 LLM보다 문맥 유지 능력이 낮음 ✖ 복잡한 질문이나 생성 작업에서는 한계가 있음 ✅  사용 사례: 🔹 챗봇, 개인 비서 🔹 기업 내 고객 지원 AI 🔹 도메인 특화 모델 (예: 의료 상담 AI)     🔹  SLLM (Super Lightweight Language Model) ✅  특징: 수백만~수천만 개의 파라미터를 가진 초경량 AI 모델 모바일 및 엣지 디바...
이미지
#Gensim #spaCy #NLTK #TextBlob #PyCaret #Word2Vec #Doc2Vec 10가지 유용한Text 데이터 분석 라이브러리 데이터 분석을 위한 기술로 텍스트 분석 및 자연어 처리 도구들과 기법들을 설명하고 비교해봅니다. 1. Gensim 목적 : 토픽 모델링, 문서와 단어 임베딩, 그리고 자연어 처리(NLP)를 위한 Python 라이브러리. 주요 기능 : LDA, Word2Vec, Doc2Vec, FastText와 같은 알고리즘 지원. 대규모 텍스트 데이터를 효과적으로 처리. 특징 : 간단한 사용법과 확장성이 뛰어남. 텍스트 클러스터링 및 토픽 모델링에 강점. https://linkniti1.com/ 2. spaCy 목적 : 고성능의 자연어 처리(NLP)를 제공하는 Python 라이브러리. 주요 기능 : 토큰화, 품사 태깅, 의존성 분석, 개체명 인식(NER). 빠르고 효율적인 텍스트 전처리. 특징 : 대규모 텍스트 데이터 처리와 실시간 응용 프로그램에 적합. 시각화 도구를 통해 분석 결과를 직관적으로 확인 가능. https://www.xn--9l4ba428cba.com 3. NLTK (Natural Language Toolkit) 목적 : 텍스트 전처리 및 분석을 위한 Python 기반 NLP 라이브러리. 주요 기능 : 토큰화, 품사 태깅, 구문 분석, 감정 분석. 다양한 텍스트 코퍼스와 학습용 데이터 포함. 특징 : 학습 목적으로 적합하며, 다양한 알고리즘 제공. 다소 복잡하고 처리 속도가 느릴 수 있음. https://xn--9l4b19kg3i.net/ 4. TextBlob 목적 : 단순하고 직관적인 텍스트 분석을 위한 Python 라이브러리. 주요 기능 : 감정 분석, 텍스트 분류, 텍스트 번역. 간단한 API로 쉽게 사용 가능. 특징 : 초보자에게 적합. 작고 가벼운 프로젝트에 유용. https://textblob.readthedocs.io/ 5. PyCaret 목적 : 머신러닝 기반 텍스트 분석 및 자동화 워크플로우 제공...
이미지
토픽 모델링과 잠재적 주제 분석은 토픽 모델링과 잠재적 주제 분석은 텍스트 마이닝과 자연어 처리(NLP) 기술로 텍스트 데이터에서 숨겨진 의미와 구조를 파악하는 데 사용되는 강력한 도구입니다. 잠재적 주제 분석은 데이터의 의미적 연결을 탐색하는 과정이라면, 토픽 모델링은 이를 기반으로 문서 내/외의 주제를 분류하고 조직화하는 방법입니다. 두 방법 모두 텍스트 데이터의 잠재된 주제를 추출하고 분석한다는 공통점을 가지고 있지만, 접근 방식과 사용되는 알고리즘에는 차이가 있습니다. 1. 토픽 모델링 (Topic Modeling) 개념 : 토픽 모델링은 문서 집합에서 숨겨진 주제를 자동으로 찾아내는 통계적 모델링 기법입니다. 작동 원리 :  문서와 단어 간의 관계를 확률적으로 모델링하여 특정 주제가 여러 문서에서 어떻게 나타나는지를 분석합니다.   문서에 나타난 단어들의 빈도와 분포를 분석하여 문서의 주제를 추론합니다. 문서 집합에서 반복적으로 나타나는 주제를 찾아내어 데이터를 구조화하는 프로세스입니다. 이를 통해 문서를 자동으로 분류하거나, 숨겨진 패턴을 밝혀낼 수 있습니다. 주요 알고리즘 : 잠재 디리클레 할당 (LDA, Latent Dirichlet Allocation) : 가장 널리 사용되는 토픽 모델링 알고리즘으로, 문서-주제 분포와 주제-단어 분포를 확률적으로 추정합니다. pLSI와 같은 확률 기반 기법도 여기에 포함됩니다. 잠재 의미 분석 (LSA, Latent Semantic Analysis) : 특이값 분해(SVD)를 사용하여 문서-단어 행렬의 차원을 축소하고, 잠재된 의미를 추출합니다. 관련 도구 : Gensim (Python): LDA, LSA 등 다양한 토픽 모델링 알고리즘을 제공하는 라이브러리입니다. scikit-learn (Python): LDA, NMF 등 토픽 모델링 및 텍스트 분석 기능을 제공합니다. R의 topicmodels 패키지: R 환경에서 토픽 모델링을 수행하기 위한 패키지입니다. 활용 분야 : 뉴스 기...

이 블로그의 인기 게시물

( 경영전략,사업전략 ) 마이클 포터의 가치사슬 분석(Value Chain Analysis) 이론

[좋은글] 나침반의 바늘이 흔들리는 한 그 나침반은 틀리는 일이 없다 - 신영복

Kraken api - get token with python