드론영상 작물수분스트레스지수 탐지 알고리즘 경진대회
2020.11.22 - 2020.12.05
0
500만원
0
공유
0
공유

[공지] 주최측에서 경진대회 참여율이 저조한 것으로 판단하고 경진대회 연장 요청이 있었습니다. 이에 경진대회 기간을 연장하기로 하였습니다. 참가자분들은 착오 없으시길 부탁드립니다. 감사합니다.

  • 경진대회 기간 변경
    • (기존) 2020.11.23 ~ 2020.12.02. 23:59
    • (변경) 2020.11.23 ~ 2020.12.05, 23:59
  • 업데이트 내용
    • (2020.12.01.20:00) public, private score로 분할 산정되던 스코어를 통합 재산정하여 스코어 업데이트하였습니다.
    • (2020.11.25.19:00) metainfo_train.csv, metainfo_test.csv 두 파일의 오류 수정본이 업데이트 되었으니 다시 다운로드 부탁드립니다.

1. 배경

  • 드론으로 촬영한 적외선 영상을 이용해서 작물의 수분스트레스 지수(CWSI:Crop Water Stress Index)를 추정하는 모델을 만들고자 합니다.
  • 작물의 수분이 결핍 상태가 되면 해당 스트레스 요인에 노출되는 시간, 강도에 따라 다양한 부정적 반응이 발생하고, 작물의 생산량 저하 및 품질 악화로 이어집니다.
  • CWSI는 작물이 수분에 대하여 느끼는 스트레스 정도를 0에서 1사이의 값으로 표현하는 지수 중 하나입니다.
  • 온도는 CWSI를 결정하는 주요한 요인의 하나로, 작물의 엽온이 대기온도보다 1~4도 정도 낮은 경우에 작물의 증산이 최대가 되며, 이때의 CWSI는 0이 됩니다.
  • 반대로 작물의 엽온이 대기온도보다 4~6도 정도 높을 경우에 작물은 증산 활동을 하지 않게 되며, CWSI가 1이 됩니다. (실제 값은 음수나 1보다 큰 수가 나올 수 있습니다.)

2. 주최/주관 및 참가 대상

  • 주최 : 동서울대학교 / (주)에어랩
  • 주관 : AIFactory
  • 참가 대상 : 작물수분스트레스 탐지 알고리즘 개발에 관심 있는 일반인, 학생, 기업 등 누구나 (단, 14세 이상)

3. 데이터 제공

  • https://aifactory.space 의 회원가입을 완료한 회원이 본 대회 참가를 할 경우에만 데이터 제공
  • 회원가입 시 오류가 확인될 경우 가입 무효화 후 오류 메시지 팝업창 제시
  • "대회 규칙"에 대한 동의가 있어야만 대회 참가 가능

4. 일정 (UTC+ 9(한국) 기준)

  • 플랫폼 태스크 등록 및 경연대회 홍보: 2020.11.20
  • 경연대회 : 2020.11.23 ~ 2020.12.02
    • 1st랩 : 2020.11.23 ~ 2020.12.02, 23:59

※ 대회의 원활한 진행을 위해 일정은 변경될 수 있음. 

 

5. 상금/수여팀

  • 랩은 총 1회를 진행하며, 총 상금 500만원을 지급합니다.
  • 상금 및 수여팀은 다음과 같습니다.
수여팀상금
1st랩대회 기간 중 체크 포인트 (Check Point Time)를 거친 후 대회 기간 동안 최고점수를 달성한 1등 참가자에게 상금 지급1등: 500만원
  • 체크 포인트 (Check Point Time)
    • 1st랩은 대회 기간 중 참가자가 제출한 답안지와 주관사가 보유한 정답지의 %27비교 & 검증%27을 1시간 단위로 수행함.

※ 참가자가 팀인 경우 팀의 대표에게 지급함.


 

6. 평가

6.1 평가 방법

  • 실제 해당 기간, 해당 좌표의 CWSI 값과 참가자가 제출한 예측 CWSI 값 사이의 오차를 기준으로 평가합니다.
  • 오차 산정에는 MAE(mean absolute error)가 사용됩니다.

6.2 평가 과정

  • ‘Public Score’는 리더보드 운영 기간 중에 확인 가능하며, ‘Private Score’는 리더보드 운영 기간 중에는 확인할 수 없으며, 대회 종료 이후에 공개됨.
  • 단, Private Score는 마지막 제출 파일로 채점되므로, 참가자는 자신이 채점 받고 싶은 제출 파일을 최종적으로 갱신하여야 함.
  • 랩별 종료일 이전에 목표점수 도달 시 리더보드 운영을 종료하고, Private Score 1순위 참가자는 AIFactory로 정해진 코드 양식에 맞는 코드파일과 제공되는 양식에 맞는 설명자료를 제출함.
  • 평가는 다음과 같은 과정으로 이루어짐.
    • A. 공개 랭킹 (Public Score): 대회 중 Test 데이터의 일부로 채점함.
    • B. 최종 랭킹 (Private Score): Public Score에서 사용하지 않은 Test 데이터의 나머지로만 채점함 (랭킹에 사용되는 Test 데이터의 비율은 공개되지 않음).
    • C. 종합 최종 랭킹 (Final Private Score): 랩별 대회기간 안에 정해진 코드 양식에 맞는 코드파일과 제공되는 양식에 맞는 설명자료를 제출한 상위 참가자 팀들을 대상으로 다음의 평가 기준을 바탕으로 종합 최종 랭킹을 공개함.
평가기준평가비율
Public Score100%
Private Score0%

 

7. 대회 규칙 (중요)

※ 아래 내용에 대해서 동의 후 대회 참가할 수 있음.

7.1 외부 데이터 사용 관련

  • 외부 공공 데이터 사용이 가능하나, 코드 제출 시 함께 제출
  • 공공 데이터 외의 외부 데이터는 법적인 제약이 없는 경우에만 사용 가능
  • 외부 데이터를 크롤링할 경우, 크롤링 코드도 함께 제출

7.2 팀 참가 관련

  • 한 팀의 인원 제한은 없음.
  • 팀 대표 1인만 대회참가 신청
  • 제출은 반드시 팀 대표 1인의 아이디로 제출
  • 팀이 수상하는 경우 팀 대표에게만 상금 지급