AIFactory

팔로워 아이콘

팔로워11

대회 아이콘

주최대회0

팔로우
글쓰기
총 183

2024 AOAI톤 아이디어 경진대회’ 수상작 발표회 성료! 🎉

안녕하세요, 인공지능팩토리입니다! 지난 17일, 인공지능팩토리가 S.Pin Technology(에스핀)과 공동 주최·주관하고 한국 마이크로소프트가 후원한 ‘제1차 AOAI톤 아이디어 경진대회의 수상작 발표회가 성공적으로 마무리되었습니다. 이번 발표회는 서울 종로구 한국 마이크로소프트 본사 세미나실에서 진행되었는데요, 현장에는 인공지능팩토리 김태영 대표님과 에스핀 관계자분들이 참석해 자리를 빛내주셨습니다. 2024 AOAI톤 아이디어 경진대회란💡지난해 12월에 진행된 제1차 AOAI톤 아이디어 경진대회’는 노코드(No-Code) 환경에서 AI 기반 업무 자동화 플랫폼 '어시웍스(AssiWorks)’를 활용해 혁신적 아이디어를 제안하는 대회입니다. 수상작 발표회에서는 우수 아이디어의 실현 가능성을 점검하고, 이를 더욱 발전시킬 방법을 모색하기 위해 진행되었어요. 수상작 발표회 일정📋 일정구분내용발표자 114:00 - 14:20개회식인사말 및 대회 취지 소개운영진 & 참가자214:25 - 15:451등AI 교과서를 위한 초등학교 시험 자동 채점 시스템김연승315:50 - 15:102등오늘의 식단 자동 알림안단희415:15 - 15:35우수상smart manager진민준515:40 - 16:00데이터 모니터링 및 보고서 작성 프로세스김재엽616:05 - 16:25극강의효율_SNS 인사이트 파인더chaeyo, RYUN716:30 - 17:00폐회식2025 AOAI톤 아이디어 경진대회 사전 설명 및 폐회식김태영 | AIFactory 수상작 개요 및 주요 특징 🏅수상자분들이 직접 준비한 수상작 발표 자료는 아래 링크를 통해 만나보실 수 있습니다✨ 멋진 아이디어들이 가득하답니다!수상작 발표 자료 다운받기1️⃣ 1등 김연승_AI 교과서를 위한 초등학교 시험 자동 채점 시스템2025년 스마트 교육 환경에 발맞춰, 정확한 채점을 통해 교사들의 업무 부담을 줄이는 동시에, 대국민 교육 디지털 플랫폼인 Neis와 연계함으로써 어시웍스가 미래 교육 분야에서 보여줄 수 있는 사업적 성공 가능성을 제시했어요.2️⃣ 2등 안단희_오늘의 식단 자동 알림오늘의 식단 자동 알림은 구내 식당 식단표를 API로 받아 어시웍스(Assist Works)를 통해 개인 맞춤 식단표로 변환·안내하는 기능을 제안합니다. 이를 통해 식단의 장단점을 분석하고, 각자의 건강 상태나 기호에 맞춘 개인 맞춤형 식단 비서 역할을 수행할 수 있도록 지원하는 아이디어를 제시했어요.3️⃣ 우수상 진민준팀_Smart Manager내 업무를 조직별로 관리하고, 개인별 업무 및 프로젝트 진행 상황을 체계적으로 확인하며, 각 구성원의 역량을 객관적으로 파악할 수 있도록함. 또한, 회의 일정과 진행 내용을 자동으로 업데이트하여 조직 전반의 업무 효율을 높이는 혁신 매니저 역할을 제안해주셨어요.4️⃣ 우수상 김재엽_데이터 모니터링 및 보고서 작성 프로세스데이터 잔량을 0.1% 단위까지 정확하게 측정하고, 알림 기능으로 위험 신호를 전달함으로써, 향후 의료 분야에서 개인 맞춤형 혈압·혈당 조절기로 확장될 수 있는 가능성을 제시했어요.5️⃣ 우수상 한채연팀_SNS인사이드 파인더방대한 SNS 리서치 데이터를 빠르게 분석해 판매 추이와 트렌드를 예측하고, 재고 소진 시점을 미리 파악하여 신속하고 효율적으로 재고를 추가 발주할 수 있도록 지원함으로써 매출 상승 효과를 기대할 수 있어요. 인공지능팩토리 김태영 대표님의 한마디 ✨“이번 발표회는 AI 기술의 혁신성을 직접 체험하고, 창의적인 아이디어가 현실화되는 과정을 살펴볼 수 있는 귀중한 자리였습니다. 다가올 2차 AOAI톤 아이디어 경진대회에서는 1차 때보다 한층 발전된 LLM과 API를 함께 활용할 수 있는 어시웍스 에이전트를 선보여, 더 많은 사람들에게 긍정적인 영향을 미칠 혁신적인 아이디어가 나올 것으로 기대합니다.” ‘제2차 AOAI톤 아이디어 경진대회’ 안내 🚀이번 경진대회는 2024 AOAI톤 아이디어 경진대회 이후 업데이트된 어시웍스를 활용해 업무 효율화와 자동화에 기여할 수 있는 창의적인 아이디어를 기획하고, 이를 실제 업무에 적용한 성과를 바탕으로 우수자를 선정하여 시상합니다. 여러분의 관심과 참여는 어시웍스를 더욱 발전시키는 힘이 됩니다. 더 혁신적이고 편리한 업무 환경을 위해 많은 관심과 응모 부탁드립니다! 😊주제: LLM(대규모 언어 모델)과 API 호출 자동화 플랫폼으로 새롭게 업데이트된 '어시웍스(AssiWorks) 에이전트’를 활용한 AI 기반 업무 자동화기간: ~ 3월 28일까지 진행![대회 바로 가기]  이번 대회를 통해 인공지능팩토리는 혁신적인 AI 서비스의 가능성을 다시 한 번 확인했으며, 앞으로도 더욱 창의적인 아이디어가 발전해 나갈 수 있도록 최선을 다해 지원할 예정입니다.💙 많은 관심과 참여 부탁드리며, 인공지능팩토리는 앞으로도 AI 기술을 통해 업무 자동화와 생산성 향상에 기여할 수 있는 다양한 시도를 계속 이어나가겠습니다! 감사합니다.🙏✨ 📰 뉴스룸뉴스에이 - 제1회 AOAI톤 아이디어 경진대회, 'AI 교과서를 위한 초등학교 시험 자동 채점 시스템 1위 선정 - 뉴스에이바끄로뉴스 - 제1회 AOAI톤 아이디어 경진대회, 'AI 교과서를 위한 초등학교 시험 자동 채점 시스템 1위 선정 < 라이프 < 관광/라이프 < 기사본문 - 바끄로뉴스지디넷코리아 - [ZD SW 투데이] KT클라우드, 'AI 사업·GPUaaS' 웨비나 개최 外 - ZDNet korea

AIFactory_PR
0

인공지능팩토리와 소이랩엑스, 생성형 AI 플랫폼 구축 위한 MOU 체결! 🤝✨

 안녕하세요, 인공지능팩토리입니다!2025년 2월 19일, 인공지능팩토리에서 소이랩엑스와 함께 생성형 AI 플랫폼 구축을 위한 업무 협약(MOU)을 체결했답니다.  소이랩엑스와의 협력, 어떤 점이 특별할까요?소이랩엑스는 comfyUI를 활용하여 고품질 실용 콘텐츠를 생성하고 교육 및 프로세스를 개발하는 기업으로, Stable Diffusion 기반 이미지 생성 모델을 보다 쉽고 직관적으로 활용할 수 있게 해주는 GUI(그래픽 사용자 인터페이스)를 제공해요. 특히 노드 기반 인터페이스로 이미지 생성 과정을 시각적으로 조작하고 최적화할 수 있다는 점이 아주 매력적이랍니다! ⚡comfyUI가 뭐예요?Stable Diffusion 기반: 고퀄리티 이미지 생성 모델노드 기반: 마우스 클릭과 드래그만으로 이미지 생성 과정을 제어시각적 최적화: 전문 지식 없이도 다양한 파라미터 조절 가능 인공지능팩토리가 준비 중인 On-Premise 생성형 AI 플랫폼! 이번 협약으로 인공지능팩토리는 국내 최초로 온프레미스(자체 서버) 환경에서의 comfyUI 기반 생성형 AI 플랫폼을 연내 출시할 계획입니다. 이미 초기 플랫폼을 구축한 상태이며, 고도화를 위해 양사가 힘을 모으고 있어요. 현재 플랫폼에서 제공 중인 핵심 기능은 다음과 같습니다:Text to Image: 텍스트를 입력하면 인공지능이 이미지를 생성!Upscale: 이미지 해상도를 높여 더욱 선명하게!Face Swap: 이미지 속 얼굴을 자유자재로 교체!Face Animation: 얼굴 표정이나 움직임을 애니메이션으로 구현!이 모든 기능은 프롬프트 입력만으로 손쉽게 활용할 수 있기 때문에, 이미지 생성부터 얼굴 변환, 표정 변화 등 다양한 분야에 적용할 수 있어요. ✨ 대표님들의 한마디!최돈현 소이랩엑스 대표님은“comfyUI를 활용해 교육과 산업 전반에서 활용 가능한 고품질 콘텐츠 제작 기술을 선보이겠습니다.”라며 기대를 전해주셨고,김태영 인공지능팩토리 대표님은“온프레미스 환경에 특화된 안정적이고 효율적인 생성형 AI 솔루션을 제공하기 위해 지속적으로 노력하겠습니다.”라고 이번 협력의 중요성을 강조해주셨습니다. 앞으로가 기대되는 협업!양 사는 이번 협약을 계기로 생성형 AI 플랫폼을 더욱 발전시키고, 다양한 산업 분야에서 실용적이고 혁신적인 AI 서비스를 선보일 계획이에요. 인공지능팩토리는 앞으로도 파트너 기업들과 함께 새로운 가능성을 열어나가며, 여러분께 더욱 놀라운 AI 경험을 제공해 드리겠습니다. 💡 저희의 새로운 도전을 응원해 주세요! 감사합니다. 🙏✨ 📰 뉴스룸헬로티 - 인공지능팩토리, 소이랩엑스와 손잡고 생성형 AI 플랫폼 구축지디넷코리아 - "온프레미스 생성형 AI 플랫폼 출격"…인공지능팩토리-소이랩엑스 '맞손' 스타트업투데이 - 인공지능팩토리, 소이랩엑스와 생성형 AI 플랫폼 구축 위해 MOU 체결시사타임즈 - (주)인공지능팩토리, (주)소이랩엑스와 생성형 AI 플랫폼 구축 MOU 체결MSN - "온프레미스 생성형 AI 플랫폼 출격"…인공지능팩토리-소이랩엑스 '맞손' 

AIFactory_PR
0

인공지능팩토리, 경희대학교 배성호 교수와 협업해 디스캐닝 모델 체험 플랫폼 공식 론칭

 안녕하세요! 😊 인공지능팩토리입니다.오늘은 (주)인공지능팩토리와 경희대학교 배성호 교수 연구실과 협업해 새롭게 선보이는 스캔 이미지 복원 AI 모델 ‘DescanDiffusion’ 소식을 전해드리려고 해요! ✨ ‘DescanDiffusion’은 스캔된 이미지를 원본처럼 복원해주는 혁신적인 AI 모델로, 다양한 산업과 연구에서 큰 변화를 가져올 기술입니다.‘DescanDiffusion’이란?‘DescanDiffusion’은 경희대학교 배성호 교수 연구실과 협력해 개발된 AI 모델로, 스캔 이미지 복원의 새로운 기준을 제시합니다. 특히, 약 18,000장의 스캔 이미지와 원본 이미지 쌍을 학습 데이터로 사용해, 기존 모델보다 훨씬 더 강력한 성능을 자랑한답니다! 😊이 모델은 스캔 과정에서 발생하는 다양한 문제를 해결하도록 설계되었어요외부 먼지나 이물질로 인한 노이즈 제거스캐너와 프린터 간의 광학적 문제 해결스캔 시 종이 뒷면이 비치는 Bleed-Through 현상 완화오래된 종이의 색상 변화 복구이 모든 기술 덕분에 스캔된 이미지가 마치 원본처럼 깔끔하게 복원됩니다! 🌟‘DescanDiffusion’의 작동 원리‘DescanDiffusion’은 두 가지 주요 단계를 통해 스캔 이미지의 복합적인 문제를 해결합니다:Global Color Correction(글로벌 색상 교정):색상 관련 열화 문제를 교정해 이미지를 원본처럼 선명하게 만듭니다.Local Generative Refinement(국소 생성 복원):텍스처, 패턴, 잉크 문제 등 색상 외의 열화 문제를 정교하게 복구합니다.더불어 다양한 열화 현상을 시뮬레이션하여 학습 데이터로 활용, 실제 환경에서도 강력한 복원 성능을 보여줍니다. 누구나 체험 가능한 ‘DescanDiffusion’‘DescanDiffusion’은 저희 인공지능팩토리의 AI 플레이 플랫폼에서 무료로 체험하실 수 있어요! 스캔 이미지 복원 기술이 실제로 어떤 변화를 가져오는지 직접 확인해 보세요.🔗 체험하러 가기: https://aifactory.space/task/8832/overview 이번 프로젝트를 함께 진행한 경희대학교 배성호 연구실의 차정훈 연구원은 “DescanDiffusion’은 스캔 이미지 복원 분야에서 큰 도약을 이룰 수 있는 모델입니다. 후속 연구와 기술 발전에도 중요한 역할을 할 것이라 기대합니다.”라고 말씀해 주셨습니다. 저희 인공지능팩토리는 AI 기술을 통해 다양한 산업에 혁신을 가져오는 솔루션을 계속 개발할 예정입니다. 특히, ‘DescanDiffusion’처럼 실질적인 문제를 해결하는 기술을 더 많은 사람들에게 확산시키기 위해 최선을 다할 것입니다.앞으로도 많은 관심과 응원 부탁드리며, 더 놀라운 소식으로 찾아뵙겠습니다! 😊 감사합니다. 📰 뉴스룸https://kr.aving.net/news/articleView.html?idxno=1796995 - 에이빙뉴스https://www.aitimes.kr/news/articleView.html?idxno=33668 - 인공지능신문 

AIFactory_PR
0

인공지능팩토리, 메이티와 함께한 '2024 테스트베드 서울' 실증사업 성료

안녕하세요! 😊 인공지능팩토리입니다. 오늘은 저희 인공지능팩토리가 스마트팜 교육기업 메이티와 함께한 ‘2024 테스트베드 서울 실증사업’ 소식을 전해드립니다! 🌱✨이번 프로젝트는 미래 교육의 새로운 길을 열며 큰 성과를 거두었습니다.  ‘2024 테스트베드 서울 실증사업’이란?‘2024 테스트베드 서울 실증지원 사업’은 서울시와 서울경제진흥원이 주최한 프로그램으로, AI와 생태 교육을 융합한 혁신적인 교육 솔루션을 실제 교육 현장에 적용해 효과를 검증하는 프로젝트입니다.이번 사업에서 메이티는 스마트팜 기반 교육 콘텐츠와 시스템을 주관했고, 저희 인공지능팩토리는 AI 기반 학습 솔루션을 공동 개발해 지원했어요! 😊 실증사업이 이루어진 현장이번 프로젝트는 서울 은평구 관내 초등학교 4곳(상신초, 선일초, 증산초, 은진초)과 유치원 2곳(진관 유치원, 은평국제유치원)에서 8월 26일부터 10월 29일까지 진행되었습니다.학생들은 이 기간 동안 첨단 기술과 생태 교육이 융합된 특별한 학습 프로그램을 경험했답니다! 🌟 인공지능팩토리의 AI 기반 학습 솔루션저희 인공지능팩토리는 미니스마트팜 디바이스에 생성형 AI 모듈과 음성 인터페이스 등 최신 ICT 기술을 적용했어요. 이를 통해 학생들은 음성 명령을 사용해 스마트팜 환경을 제어하고 대화형 학습 서비스를 통해 보다 몰입감 있는 학습을 할 수 있었습니다.특히 유아 및 초등학생과 같은 디지털 기기 사용이 어려운 학생들도 텍스트 입력의 불편함 없이 학습에 참여할 수 있었어요. 그 덕분에 많은 학생들이 보다 능동적으로 학습에 몰입할 수 있었답니다. 🚀 대표들의 메시지김태영 인공지능팩토리 대표는 이렇게 말씀하셨습니다."생성형 AI와 음성 인터페이스는 학생들에게 새로운 학습 경험을 제공하는 중요한 도구입니다. 앞으로도 기술과 교육의 융합을 통해 혁신적인 학습 환경을 만들어 나갈 것입니다."김택규 메이티 대표 역시 생태 교육의 중요성을 강조하며 이렇게 전했습니다.“생태전환은 지속 가능한 사회로 나아가는 필수적인 과정입니다. 저희는 혁신적인 교육 솔루션을 통해 학습자의 성장에 기여할 수 있도록 다양한 협력을 이어갈 계획입니다.” 앞으로의 계획저희 인공지능팩토리는 앞으로도 더 많은 학생들에게 확장 가능한 스마트 학습 솔루션을 제공하기 위해 최선을 다할 예정입니다. 더 많은 소식이 궁금하신가요? 앞으로도 저희의 새로운 도전에 많은 관심과 응원 부탁드립니다! 😊 감사합니다! 📰 뉴스룸https://sentv.co.kr/article/view/sentv202412230045?d=pchttps://www.gpkorea.com/news/articleView.html?idxno=123215https://www.itbiznews.com/news/articleView.html?idxno=156054 

AIFactory_PR
0

인공지능팩토리, 기초과학연구원과 우주 연구를 위한 초대규모 AI 모델 구축 업무협약 체결

안녕하세요! 😊 인공지능팩토리입니다.인공지능팩토리가 기초과학연구원(IBS)과 함께 우주 분야 연구를 위한 대규모 언어 모델(LLM) 및 기초 모델 서비스 구축을 위한 업무 협약(MOU)을 체결했습니다! 🚀✨이번 협약은 지난 11월에 IBS 본원에서 양측 주요 관계자들이 함께 자리하며 뜻 깊은 자리를 가졌답니다. 🤝기초과학연구원과의 특별한 협력!IBS는 세계적 수준의 기초과학 연구를 이끄는 기관으로, 이미 NVIDIA H100 GPU 48대를 갖춘 강력한 컴퓨팅 인프라를 보유하고 있어요. 이런 인프라를 바탕으로 인공지능팩토리는 자사의 'AIFactory WERT' 플랫폼을 IBS 환경에 맞게 구축하게 되었습니다.이 플랫폼은 LLM 파인튜닝, 효율적인 병렬 분산 시스템, LLM 챗봇과 RPA 인터페이스까지 다양한 기능을 제공하며, 우주 연구의 혁신적인 도구가 될 예정입니다. 🌌우주 연구를 위한 AI 기술의 활용!이번 협약을 통해 IBS는 보유 인프라 중 8대를 LLM 전용으로 활용할 계획인데요, 특히 오픈소스 중 가장 대규모 모델인 'Llama 3.1 405B'를 탑재해 아래와 같은 분야에서 성과를 기대하고 있습니다:우주 데이터 분석우주 관측 시계열 예측우주 환경 시뮬레이션이 모든 과정은 인공지능팩토리의 맞춤형 소프트웨어 솔루션과 함께 진행될 예정이랍니다!앞으로를 기대해주세요! 😊김태영 대표님은 “이번 테스트베드 구축은 LLM 모델의 온프레미스 활용 가능성을 검토할 수 있는 좋은 기회입니다.” 라며 이번 협력의 의미를 강조하셨습니다.앞으로도 인공지능팩토리는 AI와 우주 연구의 만남을 통해 더 큰 혁신을 만들어갈 수 있도록 최선을 다하겠습니다! 💪✨저희의 새로운 도전을 응원해 주세요. 감사합니다! 😊 📰 뉴스룸https://www.hdnews.co.kr/news/articleView.html?idxno=310454 - 현대경제https://www.venturesquare.net/951635 - 벤처스퀘어https://kr.aving.net/news/articleView.html?idxno=1796368 - 에이빙

AIFactory_PR
0

인공지능팩토리, 디지털 혁신기업 글로벌 성장 R바우처 우수기업 선정

 안녕하세요! 😊 인공지능팩토리입니다오늘은 멋진 성과 소식을 전해드리겠습니다! 🎉(주)인공지능팩토리가 유성구청과 협력하여 온프레미스 환경에 최적화된 공공기관 맞춤형 AI 챗봇 시스템을 성공적으로 구축했습니다! 💻🤖이 챗봇은 공공기관의 반복 업무를 줄이고, 업무 효율성을 높이기 위한 시스템인데요. 특히 온프레미스 환경에서 작동하기 때문에 데이터 보안에도 철저하답니다. 🔒✨이번 프로젝트는 지난 8월, R바우처 사업의 일환으로, 유성구청에 맞춤형 AI 챗봇 시스템을 성공적으로 적용한 사례로 주목받고 있어요! 👏👏이 성과로 (주)인공지능팩토리는 대전정보문화산업진흥원 주관의 ‘2024 디지털 혁신기업 글로벌 성장 R바우처 지원사업’에서 우수기업으로 선정되는 기쁨도 누렸답니다. 🏆🎊이번 챗봇 시스템이 유성구청의 업무 혁신에 기여하길 바라며, 앞으로도 유성구청뿐만 아니라 다른 지자체와 공공기관에도 다양한 맞춤형 AI 솔루션을 제공하기 위해 최선을 다하겠습니다.(주)인공지능팩토리가 만들어낼 다양한 AI 솔루션을 기대해 주세요. 😊 (대전정보문화산업진흥원이 주관한 ‘2024 디지털 혁신기업 글로벌 성장 R바우처 지원사업’에서 (주)인공지능팩토리가 우수기업으로 선정되었으며, 김태영 대표가 발표 중인 모습입니다.) 📰 뉴스룸 https://zdnet.co.kr/view/?no=20241209102150 -지디넷코리아  https://www.venturesquare.net/949824 -벤처스퀘어https://www.hantoday.net/news/articleView.html?idxno=45712 - 한국투데이 https://www.instagram.com/p/DDePzQuhYJC/?img_index=1 - 인공지능팩토리 인스타그램https://blog.naver.com/aifactory20/223706111147 - (주)인공지능팩토리 블로그   

AIFactory_PR
0

인공지능팩토리, 2024년 대전광역시 유망중소기업으로 선정

 안녕하세요, 인공지능팩토리입니다. 😊 저희가 기쁜 소식을 전해드리려고 합니다!지난 12월 2일, ‘2024년 대전광역시 유망중소기업’으로 선정되어 🏆표창을 수여받았습니다. 📌 대전광역시 유망중소기업 인증제도란?이 제도는 대전 지역 내 성장 잠재력이 높은 중소기업을 발굴하고, 지역경제 발전의 주역으로 키우기 위해 지원하는 사업입니다. 기업의 성장성, 정착도, 재무 안정성 등을 종합적으로 평가하며, 우수한 성적을 받은 기업에 다양한 혜택을 제공합니다.✅ 유망중소기업 선정 시 혜택은?경영안정자금 이자 우대신용보증 및 서울보증 확대 지원국내·외 전시회 참가 우대지방 세무조사 3년간 유예 이번 선정은 저희 인공지능팩토리가 앞으로 더 큰 성장을 이루어갈 수 있도록 힘을 얻는 계기가 될 것입니다. 앞으로도 인공지능 서비스를 더욱 확대 보급해 지역 사회와 함께 성장할 수 있도록 노력하겠습니다.💙 📰 뉴스룸https://www.hantoday.net/news/articleView.html?idxno=45619 - 한국투데이https://kr.aving.net/news/articleView.html?idxno=1795986 - 에이빙https://www.venturesquare.net/949306 - 벤처스퀘어https://www.aitimes.kr/news/articleView.html?idxno=33091 - 인공지능신문  

AIFactory_PR
0

인공지능팩토리, 베스트텍과 다중지능검사 서비스 플랫폼 'AI-MIT' 협력 체결

안녕하세요, 인공지능팩토리가 베스트텍과 양해각서(MOU) 체결했습니다!🤝이번 협력은 양사가 각각 보유한 AI기술을 융합하여 다중지능검사 플랫폼인 ‘AI-MIT’💡의 고도화를 목표로 하고 있습니다.이번 체결을 통해 인공지능 기술 공동 연구 개발 및 정보를 교류, 국내외 사업 분야 협력, 해외 진출 모색을 주요 추진 과제로 삼고 있습니다. AI 기술 향상을 통해 교육, 기업 및 공공기관 외 필리핀에서 추진하는 디지털 교육 사업에 AI 기반 콘텐츠 플랫폼을 공급하는 등 다양한 고객의 수요에 부응할 수 있는 고도화된 서비스를 제공할 예정입니다.다중지능검사 플랫폼 ‘AI-MIT’💡 혁신적 발전을 기대해주세요.😁 📰 뉴스룸베스트텍, AI 전문기업 인공지능팩토리와 양해 각서 체결… - 뉴스와이어베스트텍, AI 전문기업 ‘인공지능팩토리’와 MOU…‘AI-MIT’ 고도화 - 서울경제TV

AIFactory_PR
0

[Gemma 파인튜닝톤 경진대회 참가 후기] Paligemma를 통한 딥페이크 이미지 분류

방송통신심의위원회는 지난 8월 28일 '딥페이크 성범죄영상물 종합대책' 발표 이후 지난달 말까지 한 달간의 후속 조치로 신고 및 시정 요구, 수사 의뢰 건수 등이 동반 증가했다고 오늘(10.18일) 밝혔습니다.   출처 : SBS 뉴스 , “방심위 "딥페이크 대책 한달…시정요구 1.5배·수사의뢰 2.4배" , 김기태 기자안녕하세요! 아름다운주먹밥팀입니다. 저희 팀은 Paligemma를 통하여 딥페이크 기술을 활용하여 생성된 이미지를 판별하는 것을 주제로 파인튜닝을 진행하였습니다. 🗨️ 아이디어 제안 배경최근 딥페이크 기술을 활용한 범죄가 증가하고 있으며, 이에 대한 관련 법안들이 논의되어지고 있습니다.현재 유럽연합은 ‘인공지능법’을 통하여 AI 시스템 제공자와 배포자에게 AI 생성물임을 표시하는 의무를 부과하여 딥페이크 이미지를 쉽게 식별하는 기반을 만들었으며,  국내에서도 제품 또는 서비스 제공 시에는 생성형 AI에 의하여 생성된 것을 명시하도록 진행하고 있습니다.위와 같은 움직임에 발맞춰 생성형 AI에 의하여 생성된 컨텐츠를 구분하는 영역에 생성형 AI 모델을 활용하고자 하였습니다. 😓 생성형 AI 기반의 딥페이크 이미지 탐지의 필요성…방송통신심의위원회는 지난 8월 28일 '딥페이크 성범죄영상물 종합대책' 발표 이후 지난 9월 말까지 한 달 간의 후속 조치로 시정 요구는 1.5배, 수사 의뢰는 2.4배가 늘어났으며 관련 종합 대책이 계속 차질 없이 진행되도록 전문 인력 증원이 시급함을 나타냈다.한쪽은 지속적으로 생성하고 다른 쪽은 지속적으로 탐지하는 양상을 보면서 사이버 보안 영역이 생각났습니다.  사이버 보안 영역에서 해커의 활동을 red팀, blue팀 활동으로 취약점 발견 및 조치를 통하여 범죄에 대응하고 있습니다. 하지만 끊임없이 이어지는 대량의 사이버 보안 공격에 대응하기에는 인력이 부족한 상황이며, 이를 해결하고자 다양한 빅데이터 솔루션, 자동화 시스템 그리고 AI 기술을 통하여 대응하고 있습니다.위와 같은 대응에 착안하여 딥페이크 이미지 판별 작업에 자동화를 적용할 수 있도록 생성형 AI 모델 파인튜닝을 기획하였습니다. → 이때 생성형 AI 모델은 구글의 Paligemma를 선택하여 학습을 진행하였습니다.  이와 같은 접근을 통하여 딥페이크 범죄 대응 인력 증원 요청에 기여하고자 기획을 하게 되었습니다.그림 1. 사이버 보안과 딥페이크 보안의 탐지 흐름 구성도 💡 파인튜닝 아이디어Paligemma 공식 모델 활용https://huggingface.co/google/paligemma-3b-pt-224DataSetHuggingface의 딥페이크 이미지 데이터셋 선택https://huggingface.co/datasets/JamieWithofs/Deepfake-and-real-images-validationData Format딥페이크 이미지 데이터셋에는 image와 라벨 두 값만 존재하므로 question에 대한 값 임의 생성{    "image": "deepfake image or normal imgae",    "label": "0(deepfake image) / 1(normal image)"    "question": "Is this image made by AI?" }Parameter-Efficient Fine-Tuning 진행QLoRA를 적용하여 부족한 리소스의 인프라 환경에서도 학습이 이루어지도록 설정하였습니다.Paligemma의 경우 주어진 이미지를 임베딩한 후 입력 텍스트와 함께 처리하여 결과를 도출합니다. 학습에 사용한 Paligemma 모델이 사전에 학습에 사용한 데이터셋이 hugging face에서 선택한 딥페이크 이미지 데이터셋과 유사한 영역을 포함하고 있으므로, 이에 대한 파라미터 업데이트는 수행하지 않고 그 이외의 부분을 학습하도록 설정하였습니다.  그림 2. Paligemma 아키텍처 중 파라미터 업데이트 여부 표시 CoT를 통한 모델에게 전달할 정보 추가Chain-of-Thought(CoT)를 통하여 모델에 보다 풍부한 정보를 전달하고자 하였습니다.일반 LLM 학습 시에 처럼 입력 Question 데이터에 ‘The features of the AI-generated image is Lack of detail’ 문장을 추가하였으나 모델의 분류 능력이 하락하는 것을 확인하였습니다.mm-cot 논문을 통하여 단순 CoT로는 모델의 성능이 하락하는 것을 확인하였으며, 이미지에서 정보를 추출하여 모델에 전달하는 것이 효과적임을 확인하였습니다.이에 Hugging face의 'Salesforce/blip-image-captioning-base' 모델을 활용하여 image에 대한 captioning 정보를 추가할 수 있도록 구성하였습니다.  결과적으로 딥페이크 이미지 데이터에 대하여 분류를 수행할 수 있음을 확인하였습니다. 📬 ContactEmail: bdg9412@naver.com 고민하고 기획하고 구현까지 하는 전 과정을 경험할 수 있도록 기회를 제공해주신 AIFactory 진심으로 감사드립니다!!긴 글 읽어주셔서 감사합니다. Ref : flaticon, SBS 뉴스, news1, 지디넷코리아, arXiv:2302.00923

아름다운주먹밥
0

[Google Gemma 파인튜닝톤 경진대회 참가 후기] NLP 논문번역 Gemma

안녕하세요! NLP 논문 번역 Gemma라는 주제로 우수상을 수상한 팀 효율적인 주의입니다😎 💡 아이디어 제안 배경(팀 이름이 바로 아이디어 제안 배경이랍니다…!)인공지능 분야의 논문 번역은 일반적인 번역에 비해 2가지의 특이점과 한계를 가집니다.첫 번째로, 논문이 수식을 다수 포함하고 있을 경우, 번역 과정에서 수식을 유지하지 못하는 경우가 발생하며, 두 번째로, 인공지능 분야의 전문 용어들도 직역하는 경우가 많아 번역된 결과만 확인해선 이해하기 힘든 경우가 발생하는 것입니다.위와 같은 이유로 오리지널 Gemma2-9b-it를 비롯하여 논문 번역에 가장 많이 활용되는 DeepL 조차 정성적으로 확인했을 때 좋지 않은 번역 성능을 보이고 있습니다.Efficient Attention → 효율적인 주의, dot-product attention → 도트 제품 주의, exact attention computation → 정확한 주의 계산 ?!?!??!??! 🤯Reference: https://huggingface.co/datasets/Translation-EnKo/arxiv-translation-result-950또한, 이러한 번역 문제는 프롬프팅을 통해 개선이 어려운 것을 확인하여, 파인튜닝의 중요성과 필요성이 강조되는 영역으로 생각됩니다.따라서 본 팀은 인공지능 연구자들의 영어 논문에 대한 허들을 낮추기 위해 파인튜닝을 통해 Gemma2를 기반으로 하는 논문 번역 모델을 개발하고자 했으며, 그 중에서도 저를 비롯한 팀원들이 종사하고 있는 도메인인 NLP 분야의 논문에 집중하여 문제를 해결하고자 했습니다.  🔎 파인튜닝 아이디어모델의 NLP 논문 번역 성능을 높이기 위해서 한국어로 추가 학습된 Gemma2 모델을 기반으로 두 단계의 학습을 수행하였습니다.https://huggingface.co/HumanF-MarkrAI/Gukbap-Gemma2-9BSupervised Fine-Tuning모델의 기본적인 번역 성능을 높이기 위해 영-한 번역 데이터셋을 이용해 SFT를 수행하였습니다.이를 위해 AIHub 및 Huggingface에 공개된 영-한 번역 데이터셋을 수집하고, 이 중에서도 퀄리티가 낮은 번역 데이터를 필터링하는 단계를 추가하여 모델 성능을 개선했습니다.https://huggingface.co/datasets/nayohan/aihub-en-ko-translation-1.2mhttps://huggingface.co/datasets/nayohan/trc_uniform_313k_eval_45_filtered_chatDirect Preference OptimizationSFT까지 수행했을 때, 일반적인 번역에서는 준수한 번역 성능을 보이지만, NLP 논문 번역에서는 위에서 언급한 2가지 문제점이 여전히 발생하는 것을 확인할 수 있었습니다.따라서 2가지 종류의 DPO 데이터셋을 추가 학습하여 모델의 성능을 개선하고자 하였습니다. (데이터셋 구축 과정에 대해선 자세한 설명이 어려운 점 양해 부탁드립니다.)수학 번역 DPO 데이터셋 for 수식 유지https://huggingface.co/datasets/Translation-EnKo/math-translation-dpohttps://huggingface.co/datasets/amphora/trans-mathNLP 논문 번역 DPO 데이터셋 for NLP 전문 용어 유지https://huggingface.co/datasets/Translation-EnKo/nlp-arxiv-translation-dpo 최종 학습 데이터셋 (수학 번역 + NLP 논문 번역)https://huggingface.co/datasets/Translation-EnKo/nlp-arxiv-translation-dpo-with-math-10k-chat-gemma 🍀 파인튜닝 결과본 팀은 NLP 논문 특화 번역 모델을 개발하기 위해 SFT를 수행하여 Gemma2의 기본적인 번역 성능을 향상시켰으며, DPO를 추가적으로 수행하여 NLP 전문 용어 및 수식에 포함되는 내용도 자연스럽게 번역할 수 있는 모델을 개발하였습니다.그 결과는 아래 사진과 같으며, 맨 아래 있는 데모 링크에서 직접 사용해보실 수 있습니다! 본 모델은 오픈소스로 공개되어 NLP 연구자들에게 DeepL 등의 유료 번역 서비스의 대체제로 활용될 수 있을 것으로 기대…해봤지만 아직까진 결과가 조금 판교 개발자 말투처럼 느껴지는 문제가 있어 계속해서 개선해나갈 예정입니다…ㅎㅎ🥲 💌 Contact번역은 모두가 동의할 수 있는 ‘완벽한’ 답변이 존재하기 힘든 만큼 생성형 AI의 발전에 따라 앞으로가 더 기대되는 분야인 것 같습니다.머릿속에 품고만 있던 아이디어를 펼칠 수 있는 좋은 장을 만들어주신 AIFactory 진심으로 감사드리며, 모두 수고하셨습니다!Huggingface: https://huggingface.co/Translation-EnKoGithub: https://github.com/HAE-RAE/nlp-arxiv-translatorDemo: http://43.201.170.64/Email: suzie_oh@korea.ac.kr

1

거창중학교 2-3 김예준

재훈
0

DataGemma 소개

구글의 Data Commons라는 방대한 공공 데이터 저장소와 대규모 언어 모델(LLM)을 연결하는 실험적 오픈 모델인 DataGemma가 릴리즈 되었네요. 상세한 정보는 https://ai.google.dev/gemma/docs/datagemma 이 링크를 참고하시기 바랍니다.크게 두가지 방식으로 활용가능한데요. Retrieval-Interleaved Generation (RIG)과 Retrieval-Augmented Generation (RAG)입니다. Retrieval-Interleaved Generation (RIG)사용자 쿼리: 사용자가 질문을 입력합니다.초기 응답 생성: DataGemma 모델이 초기 응답과 Data Commons 쿼리를 동시에 생성합니다.데이터 검색 및 수정: Data Commons에서 정확한 데이터를 검색하고 초기 응답의 부정확한 정보를 대체합니다.최종 응답 제공: 수정된 응답과 함께 데이터 출처 링크를 사용자에게 제시합니다.아래는 제공된 코랩 소스코드를 실행한 결과입니다. (apikeys.datacommons.org에서 Data Commons의 API 키가 필요합니다.)... calling HF Pipeline API "What progress has Pakistan made against health goa..." ... calling DC with "what was the life expectancy in Pakistan in 2000?" ... calling DC with "what was the life expectancy in Pakistan in 2020?" ... calling DC with "what was the maternal mortality rate in Pakistan in 2000?" ... calling DC with "what was the maternal mortality rate in Pakistan in 2018?"🙋‍♂️What progress has Pakistan made against health goals?🤖 Pakistan has made some progress against its health goals, but significant challenges remain.Here are some key points:Progress made:Increased life expectancy: Life expectancy at birth has increased from [DC#1(62.102 yr [1] || 61.8 years)] in 2000 to [DC#2(66.269 yr [2] || 67.2 years)] in 2020.Reduced maternal mortality: Maternal mortality ratio has declined from [DC#3(387.3715 Per 100,000 live births [3]* || 276 per 100,000 live births)] in 2000 to [DC#4(177.7277 Per 100,000 live births [4]* || 140)] in 2018.Improved immunization coverage: Immunization coverage for key vaccines like measles and polio has improved, though challenges like vaccine hesitancy persist.Expansion of healthcare infrastructure: The government has invested in expanding healthcare facilities, particularly in rural areas.Challenges remaining:High burden of infectious diseases: Pakistan still faces a significant burden from infectious diseases like tuberculosis, malaria, and HIV/AIDS.Rising non-communicable diseases: There is a growing prevalence of non-communicable diseases like diabetes, heart disease, and cancer, largely attributed to lifestyle factors and aging population.Malnutrition: Malnutrition, both undernutrition and overnutrition, remains a serious public health problem, affecting a large proportion of the population.Limited access to healthcare: Access to quality healthcare remains limited, especially in rural and underserved areas.Inadequate healthcare financing: Pakistan's healthcare system is underfunded, leading to shortages of essential medicines, supplies, and trained personnel.Weak health system: The public health system faces numerous weaknesses, including lack of coordination, poor management, and insufficient capacity.Key initiatives and programs:National Health Vision 2016-2025: This strategic document outlines the government's plan for improving health outcomes and strengthening the healthcare system.Expanded Programme on Immunization (EPI): The EPI aims to provide routine vaccinations to all children and pregnant women.Lady Health Worker Program: This program empowers women as community-based health workers, providing essential healthcare services at the grassroots level.Conclusion:Pakistan has made progress in achieving some of its health goals, but significant challenges remain. Addressing these challenges will require sustained commitment from the government, civil society, and the private sector, as well as increased investment in public health infrastructure and human resources.Note:This information is based on publicly available data and reports. For the most up-to-date information, please refer to relevant Pakistani government and international organizations like the WHO.FOOTNOTES[1] - Per datacatalog.worldbank.org, value was 62.102 yr in 2000. See more at https://datacommons.org/explore#q=what%20was%20the%20life%20expectancy%20in%20Pakistan%20in%202000%3F&mode=toolformer_rig [2] - Per datacatalog.worldbank.org, value was 66.269 yr in 2020. See more at https://datacommons.org/explore#q=what%20was%20the%20life%20expectancy%20in%20Pakistan%20in%202020%3F&mode=toolformer_rig [3] - Per Global SDG Database, value was 387.3715 Per 100,000 live births in 2000. See more at https://datacommons.org/explore#q=what%20was%20the%20maternal%20mortality%20rate%20in%20Pakistan%20in%202000%3F&mode=toolformer_rig [4] - Per Global SDG Database, value was 177.7277 Per 100,000 live births in 2018. See more at https://datacommons.org/explore#q=what%20was%20the%20maternal%20mortality%20rate%20in%20Pakistan%20in%202018%3F&mode=toolformer_rigRetrieval-Augmented Generation (RAG)사용자 쿼리 입력: 사용자가 질문을 입력합니다.쿼리 분석 및 변환: DataGemma 모델(Gemma 2 27B 기반)이 사용자의 질문을 분석하고, Data Commons가 이해할 수 있는 형태로 변환합니다.Data Commons 검색: 변환된 쿼리로 Data Commons에서 관련 데이터를 검색합니다.프롬프트 증강: 검색된 데이터를 원래 질문에 추가하여 '증강된 프롬프트'를 만듭니다.응답 생성: Gemini 1.5 Pro 모델이 이 증강된 프롬프트를 바탕으로 최종 응답을 생성합니다.아래는 제공된 코랩 소스코드 실행결과입니다. (Gemini 1.5 Pro의 API 키가 필요합니다.)... [RAG] Calling FINETUNED model for DC questions ... calling HF Pipeline API "" Your role is that of a Question Generator.  Give..." ... [RAG] Making DC Calls ... calling DC for table with "What is the rate of coal fired power in US?" ... calling DC for table with "What is highest rate of COPD in US states?" ... calling DC for table with "What is the rate of COPD in US?" ... calling DC for table with "What is the rate of coal fired power in US states?" ... calling DC for table with "How has the rate of COPD changed over time in US states?" ... calling DC for table with "How has the rate of coal fired power changed over time in US states?" ... calling DC for table with "What is the rate of COPD in US states?" ... [RAG] Calling UNTUNED model for final response ... calling AIStudio gemini-1.5-pro "Using statistics from the tables below, respond t..."🙋‍♂️Do the US states with high coal fired power also have high rates of COPD?🤖 To answer this query, we need to compare coal-fired power generation and COPD rates for each state.[Table 4] provides data on net coal-fired power generation for each state in 2020. [Table 5] provides data on COPD rates for each state from 2014 to 2021.Let's focus on the top 10 states with the highest coal-fired power generation in 2020 [Table 4]:Wyoming: 57220.4734 kWhWest Virginia: 28115.9007 kWhNorth Dakota: 32042.801 kWhKentucky: 9746.6756 kWhNebraska: 9734.179 kWhMissouri: 8413.2103 kWhMontana: 7903.9661 kWhUtah: 7017.4985 kWhIndiana: 7072.5945 kWhArkansas: 5088.5615 kWhNow let's see their corresponding COPD rates in 2020 [Table 5]:Wyoming: 6.0342%West Virginia: 9.9151%North Dakota: 5.4658%Kentucky: 8.9724%Nebraska: 5.0078%Missouri: 7.1813%Montana: 5.9228%Utah: 4.7961%Indiana: 7.4786%Arkansas: 7.7975%Observations:States like West Virginia, Kentucky, Indiana, and Arkansas have both high coal-fired power generation and high COPD rates.However, states like Wyoming, North Dakota, Nebraska, and Utah have high coal-fired power generation but relatively lower COPD rates.Conclusion:While some states with high coal-fired power generation also exhibit high COPD rates, there isn't a simple direct correlation. Other factors likely contribute to COPD prevalence, including smoking rates, air pollution from other sources, and access to healthcare. TABLESTable 1: Net Generation, Coal, All Sectors, Annual in United States (unit: kWh), according to eia.govdate | Net generation, coal, all sectors, annual2020 | 2348.536 2019 | 2938.985 2018 | 3516.992 2017 | 3708.8687 2016 | 3835.5215 2015 | 4216.5069 2014 | 4967.8966 2013 | 5002.5786 2012 | 4823.6722 2011 | 5563.2924 2010 | 5971.9631 2009 | 5723.8175 2008 | 6530.2225 2007 | 6694.0461 2006 | 6671.0628 2005 | 6811.3705 2004 | 6756.3687 2003 | 6803.4567 2002 | 6721.005 2001 | 6681.275Table 2: Chronic Obstructive Pulmonary Disease in States of United States (2020 to 2021) (unit: %), according to cdc.govrank | place | Chronic Obstructive Pulmonary Disease1 | West Virginia | 9.6571 2 | Kentucky | 8.5592 3 | Tennessee | 7.8078 4 | Louisiana | 7.7418 5 | Arkansas | 7.6916 6 | Ohio | 7.67 7 | Mississippi | 7.5369 8 | Indiana | 7.505 9 | Alabama | 7.302 10 | Missouri | 7.2912Table 3: Chronic Obstructive Pulmonary Disease in United States (unit: %), according to cdc.govdate | Chronic Obstructive Pulmonary Disease2021 | 5.7 2020 | 5.6 2018 | 6.2Table 4: Net Generation, Coal, All Sectors, Annual in States of United States (2020) (unit: kWh), according to eia.govplace | variable | dataAlabama | Net generation, coal, all sectors, annual | 4415.2052 Alaska | Net generation, coal, all sectors, annual | 1017.6891 Arizona | Net generation, coal, all sectors, annual | 1852.3798 Arkansas | Net generation, coal, all sectors, annual | 5088.5615 California | Net generation, coal, all sectors, annual | 7.3738 Colorado | Net generation, coal, all sectors, annual | 3353.8821 Connecticut | Net generation, coal, all sectors, annual | -5.3645 Delaware | Net generation, coal, all sectors, annual | 103.6413 District of Columbia | Net generation, coal, all sectors, annual | N/A Florida | Net generation, coal, all sectors, annual | 766.9396 Georgia | Net generation, coal, all sectors, annual | 1300.7158 Hawaii | Net generation, coal, all sectors, annual | 828.1036 Idaho | Net generation, coal, all sectors, annual | 10.7719 Illinois | Net generation, coal, all sectors, annual | 2463.8986 Indiana | Net generation, coal, all sectors, annual | 7072.5945 Iowa | Net generation, coal, all sectors, annual | 4474.708 Kansas | Net generation, coal, all sectors, annual | 5820.5127 Kentucky | Net generation, coal, all sectors, annual | 9746.6756 Louisiana | Net generation, coal, all sectors, annual | 843.5718 Maine | Net generation, coal, all sectors, annual | 44.046 Maryland | Net generation, coal, all sectors, annual | 554.7671 Massachusetts | Net generation, coal, all sectors, annual | N/A Michigan | Net generation, coal, all sectors, annual | 2809.7405 Minnesota | Net generation, coal, all sectors, annual | 2485.0872 Mississippi | Net generation, coal, all sectors, annual | 1548.3168 Missouri | Net generation, coal, all sectors, annual | 8413.2103 Montana | Net generation, coal, all sectors, annual | 7903.9661 Nebraska | Net generation, coal, all sectors, annual | 9734.179 Nevada | Net generation, coal, all sectors, annual | 622.3837 New Hampshire | Net generation, coal, all sectors, annual | 94.0383 New Jersey | Net generation, coal, all sectors, annual | 103.2065 New Mexico | Net generation, coal, all sectors, annual | 6071.3426 New York | Net generation, coal, all sectors, annual | 7.431 North Carolina | Net generation, coal, all sectors, annual | 1961.5495 North Dakota | Net generation, coal, all sectors, annual | 32042.801 Ohio | Net generation, coal, all sectors, annual | 3848.8873 Oklahoma | Net generation, coal, all sectors, annual | 1491.5433 Oregon | Net generation, coal, all sectors, annual | 384.3315 Pennsylvania | Net generation, coal, all sectors, annual | 1863.4167 Puerto Rico | Net generation, coal, all sectors, annual | N/A Rhode Island | Net generation, coal, all sectors, annual | N/A South Carolina | Net generation, coal, all sectors, annual | 2387.696 South Dakota | Net generation, coal, all sectors, annual | 1846.2985 Tennessee | Net generation, coal, all sectors, annual | 2068.4791 Texas | Net generation, coal, all sectors, annual | 2684.7152 Utah | Net generation, coal, all sectors, annual | 7017.4985 Vermont | Net generation, coal, all sectors, annual | N/A Virginia | Net generation, coal, all sectors, annual | 438.015 Washington | Net generation, coal, all sectors, annual | 672.0405 West Virginia | Net generation, coal, all sectors, annual | 28115.9007 Wisconsin | Net generation, coal, all sectors, annual | 4076.1819 Wyoming | Net generation, coal, all sectors, annual | 57220.4734Table 5: Chronic Obstructive Pulmonary Disease (unit: %), according to cdc.govdate | Alabama | Alaska | Arizona | Arkansas | California | Colorado | Connecticut | Delaware | District of Columbia | Florida | Georgia | Hawaii | Idaho | Illinois | Indiana | Iowa | Kansas | Kentucky | Louisiana | Maine | Maryland | Massachusetts | Michigan | Minnesota | Mississippi | Missouri | Montana | Nebraska | Nevada | New Hampshire | New Jersey | New Mexico | New York | North Carolina | North Dakota | Ohio | Oklahoma | Oregon | Pennsylvania | Rhode Island | South Carolina | South Dakota | Tennessee | Texas | Utah | Vermont | Virginia | Washington | West Virginia | Wisconsin | Wyoming2021 | 7.302 | 6.0817 | 5.8253 | 7.6916 | 4.9821 | 5.1472 | 5.3503 | 5.8549 | 4.6658 | | 6.1714 | 3.8794 | 6.0132 | 5.7013 | 7.505 | 6.0833 | 5.974 | 8.5592 | 7.7418 | 6.9312 | 4.9971 | 5.615 | 6.9539 | 4.6899 | 7.5369 | 7.2912 | 5.8638 | 5.395 | 6.5995 | 5.914 | 5.0972 | 5.8554 | 5.7765 | 6.3108 | 5.3394 | 7.67 | 7.2801 | 5.9295 | 6.3907 | 5.6575 | 6.4553 | 5.7036 | 7.8078 | 6.2384 | 4.9599 | 5.6352 | 5.8187 | 5.1331 | 9.6571 | 5.2912 | 6.2802 2020 | 7.7289 | 5.46 | 5.9513 | 7.7975 | 5.329 | 5.0064 | 5.3593 | 6.0939 | 4.1492 | 6.9057 | 6.3432 | 3.9161 | 5.8348 | 5.5743 | 7.4786 | 5.7852 | 5.6744 | 8.9724 | 7.3701 | 7.1699 | 4.998 | 4.9913 | 6.9004 | 4.487 | 7.1294 | 7.1813 | 5.9228 | 5.0078 | 6.465 | 5.521 | 5.0041 | 5.429 | 5.4751 | 6.0331 | 5.4658 | 7.9603 | 7.6301 | 5.6906 | 6.6151 | 6.3488 | 6.6951 | 5.4311 | 7.7181 | 5.9148 | 4.7961 | 5.6266 | 5.5442 | 5.1441 | 9.9151 | 5.3852 | 6.0342 2018 | 8.2006 | 6.3722 | 6.4581 | 8.1042 | 5.3041 | 4.9572 | 5.5282 | 6.6358 | 5.35 | 7.3526 | 7.0336 | 4.3386 | 6.1369 | 6.3996 | 8.3839 | 5.8288 | 6.2735 | 9.6728 | 8.4607 | 6.813 | 5.7739 | 5.4893 | 7.9249 | 4.4406 | 8.2959 | 7.5731 | 5.9336 | 5.8168 | 7.1508 | 6.6299 | 5.5678 | 6.0615 | 6.4033 | 7.0272 | 5.589 | 8.0435 | 7.774 | 6.4748 | 6.7851 | 6.8116 | 6.9505 | 5.3219 | 8.5731 | 6.2627 | 4.8334 | 5.9171 | 6.0721 | 5.2125 | 10.822 | 5.7118 | 6.3916 2017 | 8.3059 | 4.8 | 6.1673 | 7.3185 | 5.0584 | 4.884 | 6.4893 | 8.2 | 5.4 | 7.7177 | 6.9828 | 3.6 | 5.1086 | 6.6115 | 8.1239 | 6.3253 | 6.068 | 9.005 | 7.8895 | 6 | 7.4 | 6.55 | 8.361 | 4.4791 | 7.4898 | 7.8648 | 5.6545 | 5.5118 | 7.1132 | 6.8018 | 7.2777 | 5.1594 | 5.8057 | 6.4583 | 5.1 | 9.0961 | 7.6392 | 5.2816 | 7.4733 | 7.147 | 6.277 | 4.8188 | 8.4465 | 5.6736 | 4.8732 | 6.1 | 6.6287 | 5.4563 | 9.6 | 5.832 | 5.8 2016 | 7.9354 | 5.4 | 6.1259 | 7.4885 | 5.32 | 4.8841 | 6.6088 | 7.6 | 5.5 | 7.0274 | 7.0388 | 3.9 | 5.3903 | 6.1476 | 7.5212 | 5.8964 | 6.0396 | 8.8365 | 7.2624 | 6.2 | 7.4 | 6.6496 | 8.8386 | 4.4806 | 7.601 | 7.6386 | 5.9688 | 5.6184 | 6.7245 | 6.7892 | 7.5322 | 5.3767 | 6.2125 | 5.9905 | 4.9 | 8.8549 | 7.0475 | 5.8207 | 7.296 | 7.5307 | 6.5656 | 5.627 | 8.4812 | 5.8098 | 5.0269 | 6 | 6.0687 | 5.6983 | 9.3 | 6.3976 | 6 2015 | 8.0367 | 4.9 | 6.2763 | 7.0993 | 4.9888 | 5.083 | 6.4341 | 7.5 | 5.3 | 6.6414 | 6.893 | 4 | 5.314 | 5.8449 | 7.3449 | 6.0286 | 5.9755 | 8.9068 | 6.9455 | 6.5 | 7.7 | 6.7567 | 8.1416 | 4.7548 | 7.0749 | 7.2898 | 5.566 | 5.4486 | 6.8516 | 6.8112 | 6.6502 | 5.5384 | 5.8924 | 6.0714 | 5.1 | 8.8204 | 6.961 | 5.4328 | 7.4508 | 6.848 | 6.3354 | 5.2279 | 8.2169 | 5.9321 | 4.8667 | 5.8 | 5.9793 | 5.5045 | 8.5 | 6.1144 | 6.6 2014 | 8.3481 | 5 | 6.6436 | 7.6951 | 5.4254 | 4.847 | 6.4958 | 7.2 | 5.1 | 6.8535 | 6.9082 | 3.7 | 5.335 | 5.9973 | 8.085 | 5.7719 | 6.3163 | 9.112 | 7.058 | 6.4 | 8 | 7.4905 | 8.5497 | 4.7214 | 7.2584 | 7.4483 | 5.9609 | 5.6251 | 7.2217 | 6.7471 | 7.1785 | 5.3928 | 6.1946 | 6.2976 | 4.5 | 9.3054 | 7.1848 | 5.6487 | 7.4678 | 6.6089 | 6.5081 | 5.4514 | 8.3177 | 5.7875 | 4.6279 | 5.9 | 6.2613 | 5.7134 | 8.5 | 5.9432 | 6.4Table 6: Net Generation, Coal, All Sectors, Annual (unit: kWh), according to eia.govdate | Alabama | Alaska | Arizona | Arkansas | California | Colorado | Connecticut | Delaware | Florida | Georgia | Hawaii | Idaho | Illinois | Indiana | Iowa | Kansas | Kentucky | Louisiana | Maine | Maryland | Massachusetts | Michigan | Minnesota | Mississippi | Missouri | Montana | Nebraska | Nevada | New Hampshire | New Jersey | New Mexico | New York | North Carolina | North Dakota | Ohio | Oklahoma | Oregon | Pennsylvania | South Carolina | South Dakota | Tennessee | Texas | Utah | Virginia | Washington | West Virginia | Wisconsin | Wyoming2020 | 4415.2052 | 1017.6891 | 1852.3798 | 5088.5615 | 7.3738 | 3353.8821 | -5.3645 | 103.6413 | 766.9396 | 1300.7158 | 828.1036 | 10.7719 | 2463.8986 | 7072.5945 | 4474.708 | 5820.5127 | 9746.6756 | 843.5718 | 44.046 | 554.7671 | | 2809.7405 | 2485.0872 | 1548.3168 | 8413.2103 | 7903.9661 | 9734.179 | 622.3837 | 94.0383 | 103.2065 | 6071.3426 | 7.431 | 1961.5495 | 32042.801 | 3848.8873 | 1491.5433 | 384.3315 | 1863.4167 | 2387.696 | 1846.2985 | 2068.4791 | 2684.7152 | 7017.4985 | 438.015 | 672.0405 | 28115.9007 | 4076.1819 | 57220.4734 2019 | 5430.9816 | 931.0963 | 3184.1024 | 7717.0859 | 6.0971 | 4397.0764 | 14.877 | 121.9658 | 988.6534 | 2375.3538 | 919.7034 | 11.7427 | 3851.6031 | 9027.1454 | 7013.3025 | 5944.6517 | 11563.1575 | 1592.6063 | 52.7977 | 944.9408 | | 3739.8354 | 3156.8033 | 1482.204 | 9068.726 | 13176.6738 | 10548.3435 | 885.0403 | 252.0721 | 117.1407 | 6997.2505 | 21.6795 | 2920.7675 | 32932.6266 | 3998.1619 | 1975.9397 | 609.3664 | 2963.4563 | 2881.418 | 2950.0526 | 2736.6441 | 3167.5368 | 7879.4904 | 399.4687 | 941.6967 | 32408.4154 | 4521.4223 | 60980.6111 2018 | 6496.3076 | 853.3038 | 4291.4077 | 9958.3324 | 7.1335 | 4630.7429 | 92.2353 | 282.7222 | 1424.244 | 3059.1658 | 921.3696 | 11.608 | 4687.1042 | 11563.1034 | 9064.7318 | 7029.0952 | 13253.7018 | 2526.9268 | 52.8517 | 1666.1153 | | 4238.4752 | 4181.9133 | 1770.1165 | 10342.0307 | 12582.2186 | 12103.3825 | 819.9509 | 487.2886 | 134.202 | 6400.7193 | 35.3245 | 3049.6946 | 36234.7612 | 5027.6094 | 3780.0919 | 352.9049 | 3441.7922 | 3829.2666 | 2660.1932 | 3093.2659 | 3903.0339 | 8212.7472 | 1088.7513 | 715.1606 | 34352.4086 | 5736.0216 | 68524.3293 2017 | 6445.3612 | 749.9589 | 4454.561 | 8750.5671 | 7.3998 | 5205.6302 | 55.2422 | 374.5499 | 1788.273 | 3118.6485 | 964.9037 | 13.8605 | 4536.8366 | 10865.2383 | 8066.2771 | 6661.1097 | 12846.0 | 2635.1705 | 50.8596 | 1412.3666 | 165.5581 | 4211.8465 | 4090.6339 | 1547.554 | 11048.0646 | 13155.5169 | 11045.1669 | 627.7021 | 212.7385 | 136.8217 | 8798.7841 | 39.3132 | 3353.5401 | 35356.8389 | 5858.5083 | 4415.2545 | 416.6825 | 3722.9751 | 3610.777 | 2360.5207 | 4127.5241 | 4759.4021 | 8503.0538 | 1266.2506 | 739.0334 | 37581.5958 | 6188.73 | 69084.45 2016 | 7039.1708 | 800.1063 | 4377.8851 | 7955.0609 | 8.1451 | 5402.1497 | 49.5472 | 504.5846 | 1911.5245 | 3675.6742 | 1047.9356 | 17.3323 | 4627.9168 | 10927.1158 | 8042.3422 | 7928.6805 | 15048.976 | 2566.2809 | 52.4061 | 2301.6782 | 274.6235 | 4071.3679 | 4199.9596 | 1786.2753 | 9902.8217 | 13692.2707 | 11485.922 | 742.1784 | 314.0723 | 148.1409 | 8776.4813 | 90.1509 | 3683.9706 | 35153.8916 | 5908.4888 | 4877.125 | 463.7372 | 4275.104 | 4231.8723 | 2411.3666 | 4685.9623 | 4343.0055 | 8520.8244 | 1960.097 | 630.3768 | 39026.1925 | 5776.9452 | 68393.597 2015 | 8529.7858 | 904.0116 | 5293.1618 | 7295.9692 | 7.6566 | 5782.7279 | 167.3286 | 635.3999 | 2121.9533 | 3646.2087 | 939.8546 | 47.8021 | 5736.8652 | 11832.621 | 9547.0563 | 8449.2358 | 16396.1082 | 3249.4031 | 69.1456 | 2325.3801 | 331.3968 | 5323.2798 | 4503.4808 | 2140.1709 | 10752.4447 | 15524.269 | 12782.5934 | 926.3588 | 700.3186 | 198.3127 | 9779.3481 | 121.0778 | 3977.4136 | 36708.213 | 6169.9868 | 6359.0122 | 591.5975 | 5053.796 | 4622.3745 | 1749.3204 | 4637.5572 | 4425.2197 | 10610.0729 | 2059.3763 | 704.8573 | 36920.1495 | 6451.6776 | 73485.6713 2014 | 9765.5232 | 757.4428 | 6336.8209 | 11190.1151 | 20.8559 | 6080.1524 | 229.4264 | 927.3984 | 2621.8396 | 4497.4874 | 1067.7216 | 47.5855 | 6773.9051 | 14789.0324 | 10844.3063 | 9908.2217 | 18927.3517 | 4137.1665 | 59.4223 | 2953.5406 | 413.1478 | 5326.1849 | 5127.1588 | 3590.5594 | 11950.4305 | 15234.253 | 13256.7933 | 2322.8147 | 982.5684 | 284.0902 | 9738.4369 | 233.6515 | 4954.8893 | 37082.3517 | 7743.8062 | 7709.3349 | 805.1029 | 6174.4222 | 5990.2957 | 3165.012 | 5481.5403 | 5495.4278 | 11359.0787 | 2503.6089 | 952.1642 | 41886.9251 | 6509.2941 | 74437.0764 2013 | 9738.1034 | 846.7987 | 6555.2989 | 10771.7197 | 21.5187 | 6394.3999 | 189.2914 | 1671.6633 | 2370.2597 | 4033.1307 | 996.4026 | 56.8332 | 6818.2889 | 14104.084 | 10763.7507 | 10284.7667 | 18902.8903 | 4505.7355 | 47.2335 | 2622.4392 | 589.5958 | 5677.5166 | 4343.3067 | 2910.2888 | 12593.9031 | 14672.5614 | 14346.0793 | 1892.199 | 1102.6611 | 228.2298 | 11537.1226 | 239.3248 | 4780.4979 | 37997.456 | 8166.3558 | 7784.1975 | 957.9231 | 6920.6891 | 5120.593 | 3381.0502 | 5000.1717 | 5642.2296 | 11827.4031 | 2563.0884 | 967.5827 | 38972.1833 | 7083.4953 | 79703.2004 2012 | 9468.6328 | 937.2602 | 6118.6028 | 9628.2167 | 36.2393 | 6646.7617 | 181.5988 | 1553.9864 | 2294.392 | 4111.1446 | 1101.8789 | 48.0836 | 6273.8955 | 14139.9828 | 11482.9842 | 9695.8761 | 18861.4892 | 4654.8364 | 34.0772 | 2748.5975 | 320.6536 | 5368.2441 | 4225.5276 | 2416.3959 | 12076.781 | 13929.3343 | 13496.9721 | 1486.3104 | 957.0009 | 214.5089 | 11971.964 | 232.5 | 5222.8437 | 40178.4097 | 7409.6486 | 7671.9828 | 675.4527 | 6824.9171 | 6017.3728 | 3500.2992 | 5486.473 | 5293.9575 | 10791.0108 | 1732.0148 | 545.4668 | 37830.1326 | 5726.1732 | 75281.9117 2011 | 11835.748 | 908.6816 | 6751.041 | 10002.6574 | 52.6668 | 6629.3146 | 146.52 | 1603.1423 | 2728.3813 | 6136.4352 | 1032.2375 | 52.65 | 6995.2474 | 15981.0654 | 12465.6675 | 11031.154 | 20969.9994 | 5381.601 | 41.5261 | 3605.8334 | 613.6489 | 5964.5809 | 5285.3253 | 3263.7231 | 13028.3612 | 15093.1836 | 14104.5388 | 1993.0251 | 1672.3188 | 470.6431 | 13044.0583 | 483.3948 | 6186.8615 | 39544.709 | 9123.4518 | 9100.1712 | 860.7794 | 7892.2626 | 7312.4485 | 3138.8121 | 6371.1446 | 6156.8895 | 11772.6654 | 2453.7202 | 765.8149 | 40915.5779 | 6999.4492 | 72179.9089 2010 | 13175.2641 | 868.9901 | 6811.5307 | 9634.6558 | 56.2767 | 6846.7604 | 727.6538 | 2854.8642 | 3178.233 | 7547.0 | 1133.071 | 56.1986 | 7290.2953 | 17306.3255 | 13531.7557 | 11372.2981 | 20939.3152 | 5264.1739 | 65.6748 | 4088.6316 | 1264.9001 | 6641.7343 | 5287.6857 | 4587.9378 | 12516.0298 | 18774.6755 | 12769.3981 | 2589.2124 | 2340.9981 | 729.3513 | 12408.0284 | 700.1442 | 7514.812 | 42181.4836 | 10210.8869 | 8371.0159 | 1075.2606 | 8682.6974 | 8126.0503 | 4041.024 | 6871.2253 | 5949.3481 | 12271.062 | 3172.8824 | 1264.559 | 42144.7652 | 7058.8638 | 76145.5499 2009 | 11687.568 | 902.2695 | 6259.7908 | 8656.0612 | 55.4621 | 6362.5869 | 688.835 | 3193.9835 | 2895.1966 | 7221.6306 | 1113.9429 | 53.1155 | 7030.4306 | 16768.2688 | 12315.5413 | 11382.4259 | 19466.332 | 5135.5619 | 54.2619 | 4216.5287 | 1385.1866 | 6751.2063 | 5553.1336 | 4379.4025 | 12013.1157 | 15865.4112 | 12881.3369 | 2808.5204 | 2192.5872 | 582.4692 | 14295.6008 | 660.8395 | 6887.3832 | 44523.8952 | 9863.2165 | 9161.6536 | 839.3902 | 8326.8112 | 7511.6501 | 3986.4754 | 6602.1432 | 5608.7387 | 13044.6693 | 3229.8122 | 1121.5382 | 36844.2585 | 6575.8085 | 74938.2717 2008 | 15812.0794 | 898.8179 | 6980.5308 | 9084.7673 | 62.2986 | 7122.5906 | 1237.2049 | 5958.8978 | 3498.8041 | 8994.4944 | 1236.7331 | 58.9509 | 7581.6859 | 18994.5168 | 13395.3166 | 12109.0961 | 21357.3878 | 5433.339 | 264.4096 | 4787.7584 | 1643.0271 | 7022.8426 | 6052.0571 | 5659.5998 | 12412.6777 | 18774.3249 | 11957.2677 | 2944.0248 | 2622.3527 | 1036.4365 | 13435.4919 | 996.965 | 8143.8533 | 45124.1319 | 11349.533 | 9897.8345 | 1073.12 | 9322.9269 | 9171.9433 | 4580.6187 | 9133.084 | 6052.5569 | 14277.1132 | 4056.4718 | 1335.1624 | 48423.0809 | 7393.3505 | 80227.9364 2007 | 16690.869 | 942.8331 | 6692.2012 | 9037.3264 | 63.401 | 7480.5842 | 1059.9479 | 6448.9004 | 3697.1199 | 9657.5021 | 1200.0922 | 55.5205 | 7503.6168 | 19249.3129 | 12665.1822 | 13021.9335 | 21256.761 | 5268.1421 | 283.0186 | 5253.3244 | 1869.5851 | 7080.1508 | 6181.8932 | 5944.414 | 12752.9045 | 19028.3615 | 11006.7685 | 2726.1493 | 2992.2252 | 1176.6312 | 13870.6917 | 1118.8149 | 8771.9581 | 44673.0552 | 11576.1097 | 9475.6826 | 1169.0318 | 9765.4974 | 9356.8047 | 3354.2906 | 9753.8849 | 6179.884 | 14308.864 | 4569.8292 | 1324.2593 | 50089.2367 | 7134.1748 | 80629.5463 2006 | 16873.8364 | 914.2858 | 6707.8967 | 8570.1978 | 62.0563 | 7683.5116 | 1217.218 | 5782.6098 | 3601.2205 | 9447.9853 | 1182.3765 | 56.0384 | 7248.4253 | 19525.0165 | 11535.1327 | 12045.679 | 21614.914 | 5669.7895 | 242.7148 | 5225.8938 | 1737.628 | 6753.6482 | 6404.5897 | 6232.5199 | 13255.7808 | 17933.4769 | 11667.304 | 2875.3485 | 2969.6314 | 1254.0208 | 15217.5959 | 1097.5266 | 8465.2596 | 44468.7601 | 11618.995 | 9747.119 | 645.7923 | 9796.1613 | 9057.8779 | 4234.7015 | 9935.9781 | 6266.8653 | 14593.3272 | 4468.2525 | 1000.3249 | 50042.5188 | 7192.3578 | 82063.3916 2005 | 17096.6721 | 936.0845 | 6874.9794 | 8283.4736 | 59.6008 | 7679.4031 | 1139.5899 | 5718.3267 | 3503.8207 | 9767.3113 | 1261.6086 | 66.6423 | 7316.8834 | 19563.7826 | 11554.3482 | 12559.9182 | 21297.7786 | 5044.6234 | 242.8531 | 5239.7722 | 1879.2756 | 6996.5195 | 6436.022 | 5724.7798 | 13373.4969 | 18958.9417 | 11818.454 | 7558.8734 | 3136.7055 | 1343.6724 | 15498.4479 | 1076.5724 | 9009.998 | 46833.7319 | 11935.9486 | 10231.8061 | 959.3944 | 9713.5222 | 9295.2376 | 3863.7963 | 9856.6039 | 6513.1803 | 14635.6866 | 4675.252 | 1677.1449 | 50215.548 | 7523.9929 | 84304.3577 2004 | 16516.4644 | 984.3675 | 7043.1194 | 9220.5302 | 62.9047 | 7835.6915 | 1217.0931 | 5709.94 | 3724.4094 | 9116.2807 | 1259.2575 | 71.2767 | 7498.2788 | 19359.9866 | 11941.9618 | 12651.2901 | 20771.4455 | 5196.9628 | 273.5886 | 5263.3496 | 1641.594 | 6822.8613 | 6682.8077 | 6049.7154 | 13052.7028 | 18688.2364 | 11693.9728 | 7781.559 | 3159.4517 | 1195.4845 | 15371.2449 | 1192.0102 | 8832.5468 | 43530.3345 | 11190.532 | 9588.4118 | 996.1334 | 9441.4961 | 9243.1609 | 4698.8834 | 9822.6202 | 6648.4104 | 15247.4013 | 4769.6674 | 1684.7271 | 48217.7744 | 7643.8117 | 85140.8945 2003 | 17030.4306 | 847.7053 | 6912.6847 | 8625.9645 | 65.9886 | 7974.7759 | 1205.4799 | 4922.3487 | 3979.9013 | 9119.8396 | 1314.0964 | 66.2251 | 7007.1127 | 19003.2537 | 12175.3763 | 12893.7071 | 20417.068 | 5062.7554 | 288.1961 | 5447.1653 | 1696.5947 | 6749.9708 | 7055.5102 | 5955.6297 | 12998.1688 | 18538.5807 | 12052.0274 | 7597.6428 | 3065.4637 | 1138.1357 | 15345.7834 | 1229.7216 | 8878.1504 | 46065.3223 | 11785.8886 | 10464.3242 | 1213.5302 | 9374.7944 | 9019.1191 | 4492.697 | 9391.7688 | 6671.9609 | 15244.3049 | 5035.0817 | 1816.7738 | 51023.1408 | 7613.738 | 84102.0949 2002 | 16080.4091 | 895.6171 | 7083.9186 | 8536.2133 | 66.7533 | 7880.8578 | 933.0547 | 4296.3262 | 3950.2026 | 9264.898 | 1246.9997 | 67.6476 | 6920.6786 | 19113.1142 | 12054.9547 | 13034.3589 | 20361.0736 | 4903.1792 | 466.0159 | 5277.5735 | 1792.503 | 6659.4887 | 6758.4476 | 5195.8029 | 11883.18 | 16823.9379 | 11539.6629 | 7550.4154 | 2933.1166 | 1123.051 | 14500.4848 | 1214.3043 | 9030.2577 | 46400.8286 | 11654.4845 | 10307.8112 | 1075.7836 | 9237.3817 | 8994.5389 | 4304.5222 | 10301.3329 | 6539.6549 | 14834.6096 | 5226.1623 | 1430.9824 | 51484.7653 | 7310.6152 | 83843.4713 2001 | 16160.2571 | 890.9271 | 7596.7894 | 9200.7497 | 64.7589 | 8123.2649 | 1088.2498 | 4233.3935 | 4171.1732 | 8900.6617 | 1308.9984 | 54.7622 | 6369.9393 | 18941.0995 | 11823.0322 | 11756.5124 | 22319.4769 | 4905.931 | 410.9942 | 5280.1936 | 1727.4094 | 6832.3836 | 6385.8049 | 6728.393 | 11655.2079 | 18783.4791 | 11767.8116 | 8452.6203 | 2952.0899 | 1097.3038 | 15506.001 | 1227.9055 | 8886.3195 | 45186.8129 | 10907.9502 | 9984.0697 | 1281.7571 | 9098.3593 | 9028.0564 | 4764.9254 | 10386.4065 | 6336.8816 | 14747.5968 | 5247.0147 | 1517.3371 | 44526.922 | 7629.8714 | 86502.991다양한 Gemma 활용 사례 발굴에 기여하세요~! 구글코리아 후원으로 AIFactory에서는 현재 Gemma 파인튜닝톤을 진행하고 있습니다. 구글 굿즈와 세미나가 준비되어 있고 다양한 토론 정보까지 함께 나누고 있으니 많은 관심부탁드립니다. (아래 배너 클릭)

AF 김태영
0

인공지능팩토리, 엔비디아 인셉션 프로그램 선정

 안녕하세요~! 인공지능팩토리입니다 😁 최근에 좋은 소식이 있어 전해드리려 합니다. 이번에 저희 인공지능팩토리가 엔비디아 인셉션 프로그램에 선정이 되었습니다.2016년부터 시작된 해당 프로그램은, 인공지능 기반의 첨단 서비스를 다루는 스타트업 기업들을 육성하는 목적으로 인공지능 산업의 세계적 선두기업인 엔비디아가 운영중입니다. 현재 전 세계 약 2,000개 이상의 스타트업이 회원사로 등록되어 안정적인 시장 안착과 함께 원활한 제품, 서비스 개발 환경 조성 등 지원을 받고 있습니다.저희는 이번 프로그램 선정을 통해 인공지능팩토리 자체 플랫폼에 'NVIDIA NIM(NVIDIA Infrastructure Manager)을 연동하여 개인 혹은 크라우드 소싱을 통해 개발한 인공지능 모델을 쉽고 빠르게 서빙할 수 있도록 환경을 구축할 예정입니다. 또한, NVIDIA GPU를 활용하여 온프레미스 환경에서 강력하고 안정적인 AI 모델 구축/관리를 하여 고객사의 만족도 상승을 높여 나갈 계획입니다.관련기사1인공지능팩토리, 엔비디아 인셉션 프로그램에 선정…AI 플랫폼 강화 기대헬로T2인공지능팩토리, 엔비디아 인셉션 프로그램 선정AI타임스3인공지능팩토리, 엔비디아 인셉션 프로그램 선정일간투데이4인공지능팩토리, 엔비디아 인셉션 프로그램 선정시사타임즈5인공지능팩토리, 엔비디아 인셉션 프로그램 선정한국투데이6인공지능팩토리, 엔비디아 인셉션 프로그램 선정인사이드비나7인공지능팩토리, 엔비디아 인셉션 프로그램 선정돼이슈앤비즈

AIFactory_PR
0

인공지능팩토리, 초ㆍ중ㆍ고 AI교육사업 '디지털새싹' 운영

안녕하세요, 오랜만에 인공지능팩토리 마케팅 전담이 인사 드립니다~!!저희 인공지능팩토리가 2024년도 ‘디지털새싹’ 사업을 운영하기로 했습니다 😆 '디지털새싹'은 교육부와 17개 시ㆍ도 교육청 및 한국과학창의재단이 초ㆍ중ㆍ고교생이 SWㆍAI 교육에 대한 관심과 흥미를 갖고 미래 핵심역량을 갖춘 디지털 인재로 성장할 수 있도록 하기 위해 마련한 사업입니다.학생들은 인공지능 툴을 직접 사용해보고, 인공지능팩토리 플랫폼을 통해 자기주도 학습을 진행하게 되는데요~ 학습자가 직접 개발하여 결과물을 만드는 과정에서 창의성과 혁신적 사고 발달 효과를 기대할 수 있습니다💡 인공지능팩토리의 자체 플랫폼은 여기서 끝이 아닙니다! 목표한 학습 내용을 학생들이 얼마나 이해하였고 체득하였는지 리더보드를 통해 측정하고 한눈에 확인이 가능합니다 🔍 여기까지는 개인 별로 도움이 되는 특징들이며, 상호 협동의 기회가 되는 기능들이 더 기다리고 있습니다.플랫폼 내부 기능인 ‘Q&A’ 기능과 ‘토론’ 기능은 다른 사용자들과 작업물을 공유하여 서로 피드백을 받을 수 있으며, 상호 협력을 위한 발판이 됩니다. 또한 학생들은 직접 개발한 결과물을 업로드하여 교육자들의 효율적 관리를 이끌어 낼 수 있다는 장점을 가지고 있습니다. 이는 학습자에게, 미래의 학업을 위한 지속적인 자료로도 활용이 가능합니다. 관련기사1인공지능팩토리, 초·중·고 AI '디지털새싹' 키운다머니투데이2인공지능팩토리, 초·중·고 AI 교육사업 `디지털새싹` 운영디지털타임스3인공지능팩토리, 초ㆍ중ㆍ고 AI 교육사업 '디지털새싹' 운영뉴스에이4인공지능팩토리, 초ㆍ중ㆍ고 AI 교육사업 '디지털새싹' 운영시사타임즈5인공지능팩토리, 초ㆍ중ㆍ고 AI 교육사업 '디지털새싹' 운영한국투데이

AIFactory_PR
0

인공지능팩토리, 업스테이지와 온프레미스 LLM 구축 관련 업무협약 체결

 안녕하세요, 저희 인공지능팩토리가 업스테이지와 업무협약을 체결하였습니다!🤝업스테이지는 국산 LLM인 💡‘Solar LLM’💡을 자체개발하여 해당 분야에 주목과 기대를 받고 있습니다. 저희는 이 ‘Solar LLM’을 자사의 온프레미스 LLM 운영 플랫폼에 새롭게 추가하여 고객에게 최적화된 온프레미스 환경을 제공할 예정입니다. 이번 협약을 통해 양사는 기업 대상의 생성형 챗봇 공급 목적으로 오프라인 환경에서 작동하는 시스템 개발에 집중할 예정이며, 지식기반 챗봇 서비스와 리포트 생성 서비스의 신뢰성을 높이기 위해 RAG 성능을 높일 수 있는 기술 협약을 계획중입니다.*RAG: LLM이 학습한 데이터 외에 외부 데이터를 추가로 탑재하여 답변의 정확도를 높이는 기술저희는 가장 먼저 ‘Solar LLM’을 새로 추가하여 문서 구조를 자동으로 이해하고 손쉽게 추출하도록 설계된 강력한 API인 Upstage Layout Analysis 기능을 탑재할 것 입니다.😁 ✉️ 솔루션 상담 및 문의: contact@aifactory.page🔍 맞춤형 커스터마이징 챗봇 WERT:베어트 자세히 보기 ←클릭 📰 뉴스룸인공지능팩토리, 업스테이지와 설치형 LLM 제휴 - 이데일리AI팩토리-업스테이지, 온프레미스 LLM 구축 업무협약 체결 - 헬로T인공지능팩토리, 업스테이지와 온프레미스 LLM 구축 관련 업무협약 체결 - 한국투데이인공지능팩토리, 업스테이지와 업무협약 체결 - 벤처스퀘어

AIFactory
0

인공지능팩토리 AI 챗봇 'WERT', 대원제약과 구독 서비스 계약

 인공지능팩토리가 대원제약에 구독형식의 WERT(베어트) 공급계약을 성공적으로 완료했습니다. WERT(베어트)는 원하는 형태와 방식으로 맞춤형 커스터마이징이 가능한 구독형 인공지능 챗봇 서비스로지식기반형, 태스크 연동형, 리포트 생성형 총 3가지 유형으로 구성되어 있습니다. 자세한 정보 보기 해당 계약은 인공지능팩토리의 제약분야 첫 공급 사례로 대원제약에서는 인공지능 챗봇 서비스(WERT)의 질문응답 기능을 통해회사 내부의 자주 묻는 질문에 대한 빠른 대응을 통해 업무 효율을 개선하고자 도입을 결정했습니다.회사 내부 문서와 자료를 기준으로 원하는 내용을 정확히 찾고 답할 수 있는 점에서 중요한 역할을 했다고 보고 있습니다. 이번 계약 뿐만 아니라 앞으로 금융이나 헬스키어 분야와 같은 복잡하고 방대한 내부문서가 많은 산업군에서 점진적인 시장확대를 기대하고 있습니다. 솔루션 문의: cs@aifactory.page 뉴스룸[인공지능팩토리, 대원제약과 ‘구독 AI 챗봇서비스’ 계약 체결] 벤쳐스퀘어[인공지능팩토리, 제약 산업에 첫 AI 챗봇 서비스 ‘WERT’ 공급 계약 체결] 헬로티[인공지능팩토리, AI 챗봇 ‘WERT’, 대원제약과 구독 서비스 계약] 한국투데이 관련기사[인공지능팩토리, AI 챗봇 서비스 ‘WERT (베어트)’ 출시] 케이벤치[인공지능팩토리, 3가지 유형의 AI 챗봇 서비스 ‘WERT(베어트)’ 출시] CIO Korea[인공지능팩토리, 구독형 AI 챗봇 서비스 ‘베어트’ 공식 출시] 벤처스퀘어[인공지능팩토리, 구독형 AI 챗봇 서비스 ‘베어트(WERT)’ 출시] ITWorld[인공지능팩토리, AI챗봇 서비스 ‘WERT(베어트)’ 출시…3가지 유형] 인사이드 비나[인공지능팩토리, AI 챗봇 서비스 ‘WERT(베어트)’ 출시] 한국투데이[인공지능팩토리, AI 챗봇 서비스 ‘WERT(베어트)’ 출시] 일간투데이[인공지능팩토리, AI 챗봇 서비스 ‘WERT(베어트)’ 출시] 미디어원[인공지능팩토리, AI 챗봇 서비스 ‘WERT(베어트)’ 출시] 보드나라

AIFactory
0

Dataset for Rewriting Prompt

Since This competition doesn't provide any avilable dataset, participants should generate them to finetune the model.Fortunately, few foregoers generated and shared some. Here is the list. LLM Prompt Recovery - Synthetic Datastore Link: LLM Prompt Recovery - Synthetic Datastore (kaggle.com) A dataset generated by Gemma 7B-it. Inspired by thedrcat's dataset - LLM Prompt Recovery Data3000 Rewritten texts - Prompt recovery Challenge Link: 3000 Rewritten texts - Prompt recovery Challenge (kaggle.com) Prompts created by ChatGPT-4. Text rewritten by gemma-7B-it.gemma-rewrite-nbroad Link: gemma-rewrite-nbroad (kaggle.com) Prompt generated by ChatGPT. Essay generated by gemma-7B-it.

BlessingDev
0

What is mean prompting?

Mean PromptingMean prompting is a technique used in natural language processing (NLP) and machine learning, particularly in the context of language generation models. It involves providing a model with a prompt or input that represents the desired output's mean or average characteristics.Here's how mean prompting typically works:Definition:Mean prompting involves constructing a prompt that encapsulates the average or typical features of the desired output. This prompt serves as guidance for the model to generate outputs that align with the specified characteristics.Application:Mean prompting is commonly used in text generation tasks, such as generating product descriptions, summaries, or responses in conversational AI systems.For instance, in a summarization task, the mean prompt might include key points or representative phrases extracted from the input text, guiding the model to produce a concise summary that captures the essence of the original content.Implementation:Implementing mean prompting involves designing prompts that strike a balance between specificity and generality. The prompt should provide enough information to guide the model while allowing flexibility for diverse outputs.Techniques such as keyword extraction, sentence compression, or clustering can be employed to distill the input information into a representative prompt.Additionally, fine-tuning or adjusting model parameters may be necessary to ensure that the generated outputs align with the intended characteristics.Benefits:Mean prompting can improve the coherence, relevance, and consistency of generated outputs by providing the model with clear guidance.It can help mitigate issues such as output drift or divergence commonly observed in open-ended language generation tasks.By focusing the model's attention on specific features or attributes, mean prompting can enhance the overall quality of generated content.Challenges:Designing effective mean prompts requires domain knowledge and understanding of the desired output characteristics.Balancing specificity and generality in the prompt design can be challenging, as overly specific prompts may restrict creativity, while overly general prompts may result in vague or irrelevant outputs.Evaluating the effectiveness of mean prompting techniques often involves subjective judgments and may require human annotation or feedback.In summary, mean prompting is a valuable technique in language generation tasks, enabling models to produce outputs that exhibit desired average characteristics. By providing clear guidance to the model, mean prompting enhances the quality and relevance of generated content across various NLP applications.    

augi_kky
0

fine-tuning? RAG?

Fine-tuning:Fine-tuning involves adapting a pre-trained model to a specific task by retraining it on additional data related to that task, utilizing the existing pre-trained weights.It is typically employed when there is a small dataset available and improved performance is sought.Fine-tuning often involves adjusting hyperparameters such as learning rates and optimization algorithms during the fine-tuning phase.Randomly-initialized Adaptive Gradient (RAG):RAG, developed by OpenAI, is a method particularly suited for generative models like conversational systems. It initializes a new model randomly and adapts it to the task at hand.Instead of utilizing pre-trained weights, RAG updates shared parameters to tailor the model to the specific task.RAG is particularly effective when employed with large datasets, though it demands substantial computational resources, and its efficacy might be limited with smaller datasets.The choice between these methods depends on various factors such as dataset size, task complexity, availability of computational resources, and time constraints. While fine-tuning may be effective with small datasets and limited resources, randomly-initialized approaches like RAG can yield better results when ample computational resources and large datasets are available.

augi_kky
0

Context learning vs fine-tuning.

In-Context Learning vs. Fine-tuning:In-Context Learning (Prompt Learning): Utilizes context within prompts to guide model responses without updating the model itself. This method leverages examples within the prompt to shape output, enhancing flexibility and applicability across various tasks without the need for specific data tuning.Fine-tuning: Involves updating the model with a specific dataset to produce desired outputs, making it effective for specialized tasks but less flexible for changing contexts. Requires substantial time and resources for data collection and labeling, optimizing the model for particular tasks at the expense of general applicability.

발가락
0

The limitation of large language models (LLM)

LLMs such as GPT analyze extensive text data to predict and generate text based on statistical patterns. Despite their vast knowledge base, they struggle with contextually appropriate information retrieval. For example, given an anachronistic prompt like "King Sejong using a MacBook," LLMs might generate a historically inaccurate response due to their reliance on statistical probabilities. This phenomenon, known as hallucination, highlights a fundamental issue with GPT-based LLMs, with ongoing mitigation efforts involving fine-tuning and in-context learning.     

발가락
0

Technique for Enhanced Language Model Performance

While large-language models exhibit impressive zero-shot capabilities, they often struggle with more complex tasks without additional guidance. Few-shot prompting emerges as a solution, enabling in-context learning by providing demonstrations or exemplars in the prompt to steer the model towards better performance. This article explores the concept of few-shot prompting, its effectiveness, and limitations through practical examples and insights from recent research.Few-shot prompting leverages demonstrations or exemplars within prompts to guide language models towards desired responses. Touvron et al. (2023) first observed few-shot properties in models scaled to sufficient sizes, as highlighted by Kaplan et al. (2020). Tips from Min et al. (2022) emphasize the importance of both label space and input text distribution in demonstrations, along with the format used in prompts.Demonstrations in prompts can significantly influence model performance, even when labels are randomly assigned. Despite randomized labels, models can still produce accurate responses, indicating the effectiveness of few-shot prompting techniques. However, for more complex tasks, such as reasoning problems, standard few-shot prompting may fall short in providing reliable responses.Standard few-shot prompting may not suffice for tasks requiring complex reasoning. Adding more examples to prompts may not always improve model performance for intricate tasks. Chain-of-thought (CoT) prompting has gained popularity for addressing complex reasoning tasks by breaking problems down into sequential steps.Few-shot prompting serves as a valuable technique for enhancing language model performance, particularly for tasks where additional context or guidance is beneficial. However, its effectiveness varies depending on the complexity of the task and the adequacy of the provided demonstrations. Understanding the limitations of few-shot prompting can inform the exploration of more advanced prompting techniques, such as chain-of-thought prompting, to tackle increasingly complex tasks.

kiiae
0

Enhancing Language Models with RAG

Retrieval Augmented Generation (RAG) is a revolutionary approach that enhances the capabilities of language models (LLMs) by integrating them with external data sources. By leveraging vector databases, RAG enables LLMs to generate contextually rich responses, addressing limitations related to real-time information access and response accuracy.RAG operates through a streamlined four-step process:Loading a vector database with encoded documents.Encoding queries into vectors using sentence transformers.Retrieving relevant context from the vector database based on the query.Prompting the LLM with context and query to generate informed responses.Building a RAG involves:Creating a vector database using tools like FAISS.Integrating LLMs into the RAG framework.Designing prompt templates to structure input for the LLM.Constructing chains to facilitate data flow between the vector database, retriever, and LLM.RAG empowers LLMs to deliver more accurate and contextually relevant responses by incorporating external data sources. By harnessing the capabilities of RAG, LLMs become versatile tools for a wide range of applications, from providing personalized assistance to facilitating natural language interactions.

kiiae
0

Choosing Between LoRA/QLoRA for Fine-Tuning LLM

When exploring how to fine-tune large language models (LLMs), I came across two prevalent frameworks: "LoRA" and "QLoRA". Both seem to be at the forefront of current methodologies, compelling me to delve deeper into their functionalities and implications for my project. As a newcomer to the realm of LLMs, the journey to understand these frameworks has been anything but straightforward.LoRA, introduced in a study available at https://arxiv.org/abs/2106.09685, and QLoRA, detailed at https://arxiv.org/abs/2305.14314, each propose unique approaches to model fine-tuning. In an effort to discern which framework might better serve my needs, I referred to a guidance page provided by Google Cloud, which discusses the trade-offs between LoRA and QLoRA. This resource, accessible at https://cloud.google.com/vertex-ai/generative-ai/docs/model-garden/lora-qlora?hl=ko, offers insights into how each framework performs across various metrics.According to the guidance, the choice between LoRA and QLoRA hinges on specific needs, summarized as follows:GPU Memory Efficiency: QLoRA is recommended for better utilization of GPU memory.Speed: LoRA offers superior speed during the training process.Cost Efficiency: LoRA is more cost-effective, likely due to its speed advantage.Higher Max Sequence Length: QLoRA supports longer sequence lengths, beneficial for tasks requiring extensive context.Accuracy Improvement: Both frameworks offer similar improvements in accuracy.Higher Batch Size: QLoRA accommodates larger batch sizes, which can enhance training efficiency.Additionally, the guidance notes a practical consideration: the 7B model variant (specifically openLLaMA-7b, not Gemma-7b) with a batch size of 1 fails to train on L4/V100 GPUs, whereas the A100 GPU supports a batch size of 2.Ultimately, the choice between LoRA and QLoRA should align with one's specific project requirements. For those seeking further insights, the following resources provide implementation examples and additional context:Thanks to:An article detailing how to fine-tune Gemma using QLoRA: https://medium.com/@samvardhan777/fine-tune-gemma-using-qlora-️-6b2f2e76dc55.An exploration of the differences between QLoRA and LoRA for fine-tuning LLMs: https://medium.com/@sujathamudadla1213/difference-between-qlora-and-lora-for-fine-tuning-llms-0ea35a195535.

whalee
0