AutoCode: 인간 문제 제작자의 작업 흐름을 반영하여 LLM이 경쟁 프로그래밍 문제를 작성하고 검증하는 새로운 AI 프레임워크
UCSD, NYU, University of Washington, Princeton University, Canyon Crest Academy, OpenAI, UC Berkeley, MIT, University of Waterloo, 그리고 Sentient Labs의 연구진이 함께 작업한 AutoCode는 Large Language Model(LMM)이 경쟁 프로그래밍 문제를 작성하고 검증할 수 있는 새로운 AI 프레임워크이다. 이 프레임워크는 LMM들이 정확한 복잡성 해법과 상호 작용 프로토콜 위반을 거부하는지, 혹은 단위 테스트를 통과하는지 확인할 수 있다. AutoCode는 인간의 문제 제작자의 작업 흐름을 모방하여 LLM이 문제를 생성하고 검증할 수 있도록 돕는다. 이를 통해 더욱 효율적이고 정확한 프로그래밍 문제를 만들 수 있게 되었다.
#AIPaperSummary #Applications #ArtificialIntelligence #EditorsPick #SoftwareEngineering #TechNews #Technology
출처: Mark Tech Post
요약번역: 미주투데이 김지호 기자