Forum

다양한 주제에 대해 논의하거나 지식을 공유합니다.

    총 783

    AIFactory

    follower1

    팔로우
    프로필 보기

    AIFactory

    2024.04.26 04:52

    0
    0
    38
    사전설명회 질문에 관한 답변의 건
    질문1. validation/test set에서 anbient sound labels 같은건느 train set 에는 없던데, 이거로 학습은 하면 안되는걸까요?학습없이 입력파라미터로 사용해야하는건지요?- (Ambient sound를 비롯한) 일부 데이터는 검증 및 평가 데이터셋에서만 제공됩니다. 각각의 데이터 셋에 관한 상세 설명은 대회 페이지에 링크되어 있는 참고 문헌을 확인하시기 바랍니다. 대회 참여자는 본 대회에 제공된 데이터를 모두 또는 선택적으로 활용하여 학습 모델을 훈련하실 수 있고, 최종 제출물의 성능을 높이기 위해 다양한 최적화 기법 및 방안을 적용하실 수 있습니다. 질문2. recall, precision, F1 score 계산할때 내장함수 써도 되나요?- 네, 가능합니다. 질문3. 논문주제는 반드시 "대회과 관련된 output과 관련된 모델의 성능"에 관련한 내용으로 써야하나요? 대회와 관련되지 않은 output을 주제로 써도 되는지요?- 제출 논문은, 본 대회에서 제공한 데이터로부터 최종 제출 결과물을 도출하기까지의 데이터 처리 방법 및 학습 모델 설명을 포함해야 합니다. 만약 제시된 논문 모집 분야에서 크게 벗어난 논문을 투고하였을 경우, 수상 자격에서 제외될 수 있습니다. 질문4. 연구주제 특성상 아무래도 여기서 출판이 안되면 다른 곳에 내기에는 어려울 수도 있을 수 있는데, acceptance rate 가 어느정도 되나요?- 작년 ictc 학술대회 전체 acceptance rate은 48.2% 였습니다. 허나, 저희 대회는 분야와 주제가 확실히 정해져 있기 때문에 이보다는 높은 acceptance rate을 보일 것이라 예상됩니다. 많은 참여 부탁 드립니다.감사합니다.

    AF 김태영

    follower2

    팔로우
    프로필 보기

    AF 김태영

    2024.04.25 01:57

    0
    0
    738
    LangChain KR x NAVER Cloud 생성형 AI 서비스 개발 프로젝트 지원하기
    안녕하세요. 김태영입니다. 이번에 랭체인코리아와 NAVER Cloud가 함께 멋진 기획을 하나 했습니다🌟. 바로 생성형 AI 서비스 개발 프로젝트 지원하기인데요🤖. 상세한 내용을 아래와 같이 작성했습니다📝. 많은 관심 부탁드립니다🙏. 📢 프로젝트 소개🎇 NAVER Cloud 생성형 AI 서비스 개발 프로젝트네이버의 생성형 AI 하이퍼클로바X 기반 서비스를 자유롭게 만들 수 있는 프로젝트입니다.네이버 생성형 AI 개발 도구 클로바 스튜디오를 활용하며, 클로바 스튜디오를 포함 네이버 클라우드 플랫폼 (ncloud.com) 서버, 네트워크, 스토리지 등을 사용 가능한최대 100만 원 크레딧과 온라인 교육 자료를 제공합니다. 🎈 클로바 스튜디오란?기업 및 개인이 보유한 데이터셋을 HyperCLOVA X 언어 모델과 결합해 AI 기반 특화 서비스를 손쉽게 만들 수 있는 개발 도구입니다.(간단 소개 영상)https://youtu.be/_dSLm1xkYgQ?si=0yrSTRZWZ3EQ9xe4 또는 아래 영상 play(웨비나로 자세히 알아보기)https://youtu.be/DlM8uMqD0e4?si=E1Ia3AQf197t3Vr2 🎈 클로바 스튜디오로 만들 수 있는 서비스이번 프로젝트 참여를 통해 만들 수 있는 서비스 예시를 살펴보세요.기업이 만든 서비스 : 링크개인이 만든 서비스 : 링크✅ 참가 대상■ 참가 대상 : 생성형 AI 서비스 개발에 관심 있는 누구나✨사이드 프로젝트, 비즈니스 수익화 등 어떤 목적으로도 참여 가능합니다.개인이 두 개 이상의 팀에 중복으로 참여 불가하며, 한 팀의 구성원은 4명까지로 제한하고 있습니다.1인 팀으로도 참여 가능합니다.🏃‍♀️ 지원 방법본 페이지는 참가 지원을 위한 페이지입니다. 프로젝트는 참가팀 10개팀 선정 후 별도의 페이지(태스크)를 생성하여 진행합니다.1️⃣ 참가 지원 방법 기간 : '24년 4월 24일(수) ~ 5월 12일(일) 20:00(1) 미리 구성한 팀으로 참가하거나 (2) 아이디어를 올린 후 팀원을 찾을 수도 있습니다.함께 참여할 팀원 찾기본 플랫폼 (인공지능팩토리 웹사이트)에서 함께 참여할 팀원을 찾고 팀 결성을 할 수 있습니다.본 페이지 우측 상단 [참여하기] 버튼을 누릅니다.본인이 만들고 싶은 생성형 AI 아이디어와, 담당 직무 또는 스킬을 소개하는 글을 [토론] 게시판에 올려주세요.관심 분야와 목표가 맞는 팀원들과 [팀] 메뉴에서 팀빌딩을 진행해 주세요. 1인팀으로도 참여 가능합니다.2️⃣ 참가 지원하기팀 구성이 완료되면 아래의 내용을 포함하여 참가 접수 form을 작성합니다.프로젝트 계획 (아이디어와 목적) 팀 구성 및 역할 (최대 4명 구성)예상 산출물 (웹 or 앱 서비스)목표 (토이 프로젝트 or 서비스 고도화 및 사업화)* 참가 접수 form을 클릭하면 위 내용을 순차적으로 작성하실 수 있습니다.* 혹시 본 페이지 우측 상단 [참여하기] 버튼을 누르기 전이라면, 꼭 누른 후 참가 접수 form을 입력해 주세요.3️⃣ 참가 팀 : 총 10개 팀 선정참가 접수 form에 접수된 내용을 기준으로 아래의 심사 기준을 통해 참가팀을 선정합니다.구체성 : 기획 내용의 구체성 (25%)체계성 : 팀 구성, 일정 등의 운영 체계 (25%)현실성 : 예상되는 산출물의 구현 가능성 (25%)네이버 AI 사용 : 클로바 스튜디오 활용 내용과 범위 (25%)4️⃣ 선정 결과 발표 : '24년 5월 17일(금) 본 페이지와 팀 대표 이메일을 통해 공지합니다.5️⃣ 제공 혜택 (심사 통과 및 프로젝트 참가 시)네이버 클라우드 플랫폼 크레딧 최대 100만 원 (유효기간 6개월)클로바 스튜디오 온라인 기술 교육 자료 제공 (외부 비공개 자료)AI Factory x NAVER AI 해커톤 가산점 제공 (하반기 예정)■ 참가 신청 시 유의사항반드시 참여하기 클릭 후 폼 작성 및 제출 완료하셔야만 정상적으로 접수가 완료됩니다. 참가 접수폼은 팀 대표 한분만 (팀 구성원 정보 포함하여) 작성대회 진행 중의 안내 메일은 일관적인 소통을 위해 팀 대표에게만 발송됩니다. 팀 대표자는 안내 메일을 확인하여 팀원 분들과 공유하여 주시고 회신이 필요한 경우 팀 대표 메일로 작성하여 보내주시기 바랍니다. 대회에 원활히 참가하실 수 있도록 운영진이 수시로 확인하지만 저녁 시간대 및 주말의 경우 확인이 늦어질 수 있는 점, 미리 양해의 말씀 구합니다. (Q&A ,메일 회신 등)🪄 본 프로젝트👇여기서부터는 별도의 태스크를 생성하여 진행합니다👇1️⃣ 프로젝트 기간 : '24년 5월 20일(월) ~ 6월 23일(일) 20:005주 동안 10개 참가 팀은 클로바 스튜디오를 활용한 생성형 AI 서비스를 개발합니다. (웹 또는 앱 형태의 서비스)2️⃣ 산출물필수 제출 : 웹 또는 앱 형태의 서비스를 확인할 수 있는 링크선택 제출 : 서비스 소개서 또는 소개 영상 3️⃣ 결과 발표회6월 말(예정)정확한 일정과 장소는 추후 공지 예정입니다.👩🏻‍💼 주최/주관주최/주관 : LangChain KR후원 : NAVER Cloud, AIFactory🏆 상금 및 시상 규모1등 : 50만 네이버페이 포인트 + 추가 100만 원 크레딧 (1년 유효)2등 : 30만 네이버페이 포인트 + 추가 50만 원 크레딧 (1년 유효)3등 : 20만 네이버페이 포인트※ 모든 리워드는 팀 단위로 제공됩니다.📝 저작물 소유권공모전에 제출된 응모작에 대한 권리는 응모자에게 있습니다.단, 네이버클라우드 또는 인공지능팩토리의 마케팅/홍보 목적을 위해 소개될 수 있습니다. 해당 조건에 동의하는 분에 한해 프로젝트 참가가 가능합니다.📩 문의처인공지능팩토리 Q&A 탭❗️인공지능팩토리 사이트에 로그인 하시면 본 페이지 상단의 Q&A 탭에서도 질문을 남기실 수 있습니다. Q&A탭을 통해서 더 빠르고 자세한 답변을 받으실 수 있으니 많은 사용 부탁 드립니다. 네이버클라우드개발자 지원 프로그램 운영팀e-mail : greendevelopers@navercorp.com 많은 관심과 참여 부탁드립니다!

    BlessingDev

    follower0

    팔로우
    프로필 보기

    BlessingDev

    2024.04.23 00:25

    0
    0
    10
    Dataset for Rewriting Prompt
    Since This competition doesn't provide any avilable dataset, participants should generate them to finetune the model.Fortunately, few foregoers generated and shared some. Here is the list. LLM Prompt Recovery - Synthetic Datastore Link: LLM Prompt Recovery - Synthetic Datastore (kaggle.com) A dataset generated by Gemma 7B-it. Inspired by thedrcat's dataset - LLM Prompt Recovery Data3000 Rewritten texts - Prompt recovery Challenge Link: 3000 Rewritten texts - Prompt recovery Challenge (kaggle.com) Prompts created by ChatGPT-4. Text rewritten by gemma-7B-it.gemma-rewrite-nbroad Link: gemma-rewrite-nbroad (kaggle.com) Prompt generated by ChatGPT. Essay generated by gemma-7B-it.

    augi_kky

    follower0

    팔로우
    프로필 보기

    augi_kky

    2024.04.23 00:23

    0
    0
    5
    What is mean prompting?
    Mean PromptingMean prompting is a technique used in natural language processing (NLP) and machine learning, particularly in the context of language generation models. It involves providing a model with a prompt or input that represents the desired output's mean or average characteristics.Here's how mean prompting typically works:Definition:Mean prompting involves constructing a prompt that encapsulates the average or typical features of the desired output. This prompt serves as guidance for the model to generate outputs that align with the specified characteristics.Application:Mean prompting is commonly used in text generation tasks, such as generating product descriptions, summaries, or responses in conversational AI systems.For instance, in a summarization task, the mean prompt might include key points or representative phrases extracted from the input text, guiding the model to produce a concise summary that captures the essence of the original content.Implementation:Implementing mean prompting involves designing prompts that strike a balance between specificity and generality. The prompt should provide enough information to guide the model while allowing flexibility for diverse outputs.Techniques such as keyword extraction, sentence compression, or clustering can be employed to distill the input information into a representative prompt.Additionally, fine-tuning or adjusting model parameters may be necessary to ensure that the generated outputs align with the intended characteristics.Benefits:Mean prompting can improve the coherence, relevance, and consistency of generated outputs by providing the model with clear guidance.It can help mitigate issues such as output drift or divergence commonly observed in open-ended language generation tasks.By focusing the model's attention on specific features or attributes, mean prompting can enhance the overall quality of generated content.Challenges:Designing effective mean prompts requires domain knowledge and understanding of the desired output characteristics.Balancing specificity and generality in the prompt design can be challenging, as overly specific prompts may restrict creativity, while overly general prompts may result in vague or irrelevant outputs.Evaluating the effectiveness of mean prompting techniques often involves subjective judgments and may require human annotation or feedback.In summary, mean prompting is a valuable technique in language generation tasks, enabling models to produce outputs that exhibit desired average characteristics. By providing clear guidance to the model, mean prompting enhances the quality and relevance of generated content across various NLP applications.    

    augi_kky

    follower0

    팔로우
    프로필 보기

    augi_kky

    2024.04.23 00:21

    0
    0
    4
    fine-tuning? RAG?
    Fine-tuning:Fine-tuning involves adapting a pre-trained model to a specific task by retraining it on additional data related to that task, utilizing the existing pre-trained weights.It is typically employed when there is a small dataset available and improved performance is sought.Fine-tuning often involves adjusting hyperparameters such as learning rates and optimization algorithms during the fine-tuning phase.Randomly-initialized Adaptive Gradient (RAG):RAG, developed by OpenAI, is a method particularly suited for generative models like conversational systems. It initializes a new model randomly and adapts it to the task at hand.Instead of utilizing pre-trained weights, RAG updates shared parameters to tailor the model to the specific task.RAG is particularly effective when employed with large datasets, though it demands substantial computational resources, and its efficacy might be limited with smaller datasets.The choice between these methods depends on various factors such as dataset size, task complexity, availability of computational resources, and time constraints. While fine-tuning may be effective with small datasets and limited resources, randomly-initialized approaches like RAG can yield better results when ample computational resources and large datasets are available.

    발가락

    follower0

    팔로우
    프로필 보기

    발가락

    2024.04.23 00:18

    0
    0
    4
    Context learning vs fine-tuning.
    In-Context Learning vs. Fine-tuning:In-Context Learning (Prompt Learning): Utilizes context within prompts to guide model responses without updating the model itself. This method leverages examples within the prompt to shape output, enhancing flexibility and applicability across various tasks without the need for specific data tuning.Fine-tuning: Involves updating the model with a specific dataset to produce desired outputs, making it effective for specialized tasks but less flexible for changing contexts. Requires substantial time and resources for data collection and labeling, optimizing the model for particular tasks at the expense of general applicability.

    발가락

    follower0

    팔로우
    프로필 보기

    발가락

    2024.04.23 00:17

    0
    0
    2
    The limitation of large language models (LLM)
    LLMs such as GPT analyze extensive text data to predict and generate text based on statistical patterns. Despite their vast knowledge base, they struggle with contextually appropriate information retrieval. For example, given an anachronistic prompt like "King Sejong using a MacBook," LLMs might generate a historically inaccurate response due to their reliance on statistical probabilities. This phenomenon, known as hallucination, highlights a fundamental issue with GPT-based LLMs, with ongoing mitigation efforts involving fine-tuning and in-context learning.     

    kiiae

    follower0

    팔로우
    프로필 보기

    kiiae

    2024.04.22 18:49

    0
    0
    2
    Technique for Enhanced Language Model Performance
    While large-language models exhibit impressive zero-shot capabilities, they often struggle with more complex tasks without additional guidance. Few-shot prompting emerges as a solution, enabling in-context learning by providing demonstrations or exemplars in the prompt to steer the model towards better performance. This article explores the concept of few-shot prompting, its effectiveness, and limitations through practical examples and insights from recent research.Few-shot prompting leverages demonstrations or exemplars within prompts to guide language models towards desired responses. Touvron et al. (2023) first observed few-shot properties in models scaled to sufficient sizes, as highlighted by Kaplan et al. (2020). Tips from Min et al. (2022) emphasize the importance of both label space and input text distribution in demonstrations, along with the format used in prompts.Demonstrations in prompts can significantly influence model performance, even when labels are randomly assigned. Despite randomized labels, models can still produce accurate responses, indicating the effectiveness of few-shot prompting techniques. However, for more complex tasks, such as reasoning problems, standard few-shot prompting may fall short in providing reliable responses.Standard few-shot prompting may not suffice for tasks requiring complex reasoning. Adding more examples to prompts may not always improve model performance for intricate tasks. Chain-of-thought (CoT) prompting has gained popularity for addressing complex reasoning tasks by breaking problems down into sequential steps.Few-shot prompting serves as a valuable technique for enhancing language model performance, particularly for tasks where additional context or guidance is beneficial. However, its effectiveness varies depending on the complexity of the task and the adequacy of the provided demonstrations. Understanding the limitations of few-shot prompting can inform the exploration of more advanced prompting techniques, such as chain-of-thought prompting, to tackle increasingly complex tasks.

    kiiae

    follower0

    팔로우
    프로필 보기

    kiiae

    2024.04.22 18:37

    0
    0
    9
    Enhancing Language Models with RAG
    Retrieval Augmented Generation (RAG) is a revolutionary approach that enhances the capabilities of language models (LLMs) by integrating them with external data sources. By leveraging vector databases, RAG enables LLMs to generate contextually rich responses, addressing limitations related to real-time information access and response accuracy.RAG operates through a streamlined four-step process:Loading a vector database with encoded documents.Encoding queries into vectors using sentence transformers.Retrieving relevant context from the vector database based on the query.Prompting the LLM with context and query to generate informed responses.Building a RAG involves:Creating a vector database using tools like FAISS.Integrating LLMs into the RAG framework.Designing prompt templates to structure input for the LLM.Constructing chains to facilitate data flow between the vector database, retriever, and LLM.RAG empowers LLMs to deliver more accurate and contextually relevant responses by incorporating external data sources. By harnessing the capabilities of RAG, LLMs become versatile tools for a wide range of applications, from providing personalized assistance to facilitating natural language interactions.

    whalee

    follower0

    팔로우
    프로필 보기

    whalee

    2024.04.21 02:35

    0
    0
    22
    What kind of loss function do we have to use?
    손실함수는 신경망 모델이 각 훈련 배치에서 전체 오류를 계산하는 방법을 정의합니다. 따라서 역전파를 수행할 때 내부 가중치가 조정되는 과정에 영향을 미치므로 전체 모델 성능에도 중요한 영향을 미칩니다. 이미지 분할 및 분류 작업에 대한 기본적인 손실 함수는 BCE ( 이진 교차 엔트로피 ) 입니다. Dice 계수 혹은 IoU 손실 함수가 사용되는 상황에서도 기본적인 베이스라인으로 BCE를 사용합니다. 손실 함수는 역전파가 거슬러 올라가는 동안 모델 전체에서 계산되어야 하는 텐서에서 작동해야 하므로 Numpy로 간단하게 계산될 수 없습니다. 해당 모델 라이브러리에서 제공하는 함수를 사용해야 합니다. Keras에서는 k.sum()과 같은 함수를 사용합니다. 그라디언트 계산은 모델 라이브러리에 의해 자동으로 계산되지만, 필요한 경우 수동으로 정의할 수 있습니다. 다중 클래스 분류 및 분할에서는 전체 손실대신에 각 클래스의 평균 손실을 계산하는 손실 함수를 사용합니다. 1. Distributation-based loss ( 분포 기반 손실 함수 )Cross entropy (CE) 크로스 엔트로피는 Kullback-Leibler(KL) divergence라는 두 분포 사이의 비유사성에 대한 측정값입니다. 일반적인 기계 학습에서는 데이터 분포는 훈련 데이터에의해 제공되므로 H(p)는 상수입니다.가중 교차 엔트로피는 CE의 확장된 버전으로 각 클래스에 다른 가중치를 할당합니다. 일반적으로 제시되지 않은 클래스에는 더 큰 가중치가 할당됩니다.TopK loss는 네트워크가 훈련 중에 까다로운 샘플에 집중하도록 하는 것을 목표로 합니다.초점 손실은 잘 분류된 예제에 할당된 손실이 감소되는 극단적인 전경-배경 클래스 불균형을 처리하기 위해 표준 CE를 적용합니다.거리 패널티 CE 손실 가중치는 실제 마스크에서 파생된 거리 맵에 의해 엔트로피를 교차합니다. 분할하기 어려운 경계 영역으로 네트워크의 초점을 안내하는 것을 목표로 합니다. 2. BCE-DICE Loss (BCE-Dice 결합 손실 함수) 이 손실은 이미지 분할 모델 손실 함수로서 기본값인 표준 이진 교차 엔트로피(BCE) 손실과 주사위 손실을 결합합니다. 두 가지 방법을 결합하면 손실의 다양성을 허용하면서 BCE의 안정성을 활용할 수 있습니다. 다중 클래스 BCE에 대한 방정식 자체는 로지스틱 회귀를 연구자에게 친숙한 개념이다.  3. Region-based loss (영역 기반 함수)영역 기반 손실 함수는 정답과 예측된 분할 간의 불일치를 최소화하거나 중첩 영역을 최대화하는 것을 목표로 합니다.민감도-특이성(SS) 손실은 민감도와 특이성의 평균 제곱 차이의 가중치 합입니다. 불균형 문제를 해결하기 위해 SS는 특이성에 더 높은 가중치를 부여합니다.주사위 손실은 가장 일반적으로 이미지 분할에 사용되는 평가 지표인 주사위 계수를 직접 최적화합니다.Dice 손실과 유사한 IoU 손실(Jaccard 손실이라고도 함)은 세분화 메트릭을 직접 최적화하는 데에도 사용됩니다.Tversky 손실은 FN(False Negative) 및 FP(False Positive)에 서로 다른 가중치를 설정합니다. 이는 FN 및 FP에 대해 동일한 가중치를 사용하는 주사위 손실과 다릅니다.일반화된 주사위 손실은 각 클래스의 가중치가 레이블 빈도의 제곱에 반비례하는 Dice 손실의 다중 클래스 확장입니다.초점 트버스키 손실은 초점 손실의 개념을 적용하여 확률이 낮은 희귀한 케이스에 초점을 맞춥니다.페널티 손실은 일반화된 주사위 손실에서 위음성 및 위양성에 높은 페널티를 제공하는 손실 함수입니다. 4. Dice Loss주사위 계수는 가장 일반적으로 이미지 분할에 사용되는 평가 지표이며, 이에 최적화 된 손실 함수입니다. 5. Jaccard/Intersection over Union (IoU) Loss -> IoU 손실 함수IoU 평가 지표는 주사위 지표와 비슷하며 교집합 대비 합집하의 비율로 계산된다. 주사위 지표와 함께 이미지 분할 모델에서 가장 많이 쓰이는 지표(수단)이다. 6. Focal LossFocal Loss는 2017년 Facebook AI Research의 Lin et al에 의해 양성 사례가 상대적으로 드물었던 극도로 불균형한 데이터 세트를 해결하기 위한 수단으로 도입되었습니다. 그들의 논문 "Focal Loss for Dense Object Detection"은 https://arxiv.org/abs/1708.02002에서 검색할 수 있습니다. 실제로 연구원들은 함수의 알파 수정 버전을 사용했기 때문에 이 구현에 포함시켰습니다. 7. Tversky Loss트베르스키 손실은 https://arxiv.org/abs/1706.05721 에서 검색할 수 있는 "3D 완전 컨볼루션 심층 네트워크를 사용하는 이미지 분할을 위한 Tversky 손실 함수"에 소개되었습니다. 손실 함수에서 서로 다른 유형의 오류가 얼마나 심하게 처벌되는지를 조정할 수 있는 상수를 활용하여 불균형 의료 데이터 세트에 대한 분할을 최적화하도록 설계되었습니다. 논문에서:... α=β=0.5의 경우 Tversky 지수는 F1 점수와 동일한 주사위 계수와 동일하도록 단순화됩니다. α=β=1일 때 방정식 2는 Tanimoto 계수를 생성하고 α+β=1로 설정하면 Fβ 점수 세트를 생성합니다. β가 클수록 정밀도보다 재현율이 더 높습니다(위음성에 더 중점을 둠).요약하자면, 이 손실 함수는 값이 증가함에 따라 손실 함수에서 더 높은 정도로 위양성 및 위음성 각각에 페널티를 주는 상수 '알파' 및 '베타'에 의해 가중치가 부여됩니다. 특히 베타 상수는 모델이 매우 보수적인 예측을 통해 오도할 정도로 긍정적인 성능을 얻을 수 있는 상황에서 적용됩니다. 최적의 값을 찾기 위해 다양한 값으로 실험할 수 있습니다. alpha==beta==0.5에서 이 손실은 Dice Loss와 동일해집니다. 8. Focal Tversky Loss트베르스키 손실의 변형으로서 초점 손실의 감마 수정자를 포함한다.  9. Lovasz Hinge Loss로바즈 힌지 손실 함수는 Berman, Triki 및 Blaschko의 논문 "The Lovasz-Softmax loss: A tractable surrogate for optimize of cross-over-union measure in neural network"에서 소개되었으며 여기에서 검색할 수 있습니다: https://arxiv.org/abs/1705.08790.특히 다중 분류의 경우 의미론적 분할을 위해 Intersection over Union 점수를 최적화하도록 설계되었습니다. 특히 각 오류가 IoU 점수에 미치는 영향을 누적 계산하기 전에 오류를 기준으로 예측을 정렬합니다. 그런 다음 이 그래디언트 벡터에 초기 오류 벡터를 곱하여 IoU 점수를 가장 많이 감소시킨 예측에 가장 강력한 페널티를 부여합니다. 이 절차는 jeanderbleu의 탁월한 요약 에서 자세히 설명되어 있습니다.이 코드는 https://github.com/bermanmaxim/LovaszSoftmax 작성자의 github에서 직접 가져왔으며 모든 크레딧은 이들에게 있습니다.원본 손실 함수 외에도 PyTorch에 대한 입력으로 재구성된 랭크 1 텐서를 사용하는 플랫 변형을 구현했습니다. 필요에 따라 데이터의 차원과 클래스 번호에 따라 수정할 수 있습니다. 이 코드는 원시 로짓을 사용하므로 손실 계산 전에 모델에 활성화 레이어가 포함되어 있지 않은지 확인해야 합니다.간결함을 위해 연구원의 코드를 아래에 숨겼습니다. 손실이 작동하려면 커널에 로드하기만 하면 됩니다. tensorflow 구현의 경우 여전히 Keras와 호환되도록 노력하고 있습니다. Tensorflow와 Keras 함수 라이브러리 사이에는 이를 복잡하게 만드는 차이점이 있습니다. 10. Combo Loss콤보 손실은 Taghanaki 등의 논문 "Combo loss: Handling input and output 불균형 in multi-organ segmentation"에서 소개되었으며 여기에서 검색할 수 있습니다: https://arxiv.org/abs/1805.02798.콤보 손실은 Tversky 손실과 마찬가지로 거짓 긍정 또는 거짓 부정에 각각 페널티를 주는 추가 상수가 있는 수정된 교차 엔트로피 함수와 주사위 손실의 조합입니다.( 결합 함수) 11. Boundary--based loss최근 새로운 유형의 손실 함수인 경계 기반 손실은 정답과 예측 간의 거리를 최소화하는 것을 목표로 합니다. 일반적으로 더 나은 결과를 위해서 경계 기반 손실 함수가 영역 기반 손실과 함께 사용됩니다. 12. Compound loss여러종류의 손실함수를 결합함으로서, 우리는 혼합된(결합된) 손실 함수를 얻을 수 있습니다. (ex Dice+CE, Dice + Focal, Dice + IOU )... 모든 종류의 손실 함수들은 플러그 방식으로(조립 및 결합) 사용할 수 있습니다.   

    contact@aifactory.page

    대전광역시 서구 만년로 68 번길 15-20, 5 층 504호

    서울특별시 중구 세종대로18길 16, 804호

    사업자등록번호 871-81-01735