본문 바로가기

반응형

분류 전체보기

(372)
Week6 🌟 Week6✅ 개인 목표 및 진행 사항찬국님목표: Dockerize작업기타: 마크다운화 한거 테스트 부탁경태님목표: 리뷰를 열심히 하기기타: 뭐라도 하겠다봉균님목표: 쿼리 캐싱기타: 고민예정 / 작업중인것 Wiki 작성하기재일님목표: DB 연결 시도 및 시각화 /쿼리 실행 → 결과로 나오는 DataFrame까지 처리기타: DB연결시 에러 발생동욱목표: Retrieve 개선 (Reranking...) / DataHub를 활용한 기능 개발 (Glossary, Queries 중심)기타: 수도콘 부스세션 지원하기 / 리뷰 많이하기 / 토요일까지는 작업이 어려울수도 있습니다ㅜㅜ호민님목표: Workflow 내부 분리 제안 (step_refine / retrieve / sql_generation 분리 )기타: 더..
내가 아는 최고의 개발자들이 공통적으로 가진 특성 (endler.dev) 저자는 다양한 개발자를 만나면서, 최고의 개발자들이 가진 공통된 특성에 대해 고민하게 됨이 글은 초보 개발자나 성장하고 싶은 사람들에게 영감을 주기 위해 작성된 관찰 기록임 레퍼런스 문서를 먼저 읽을 것Stack Overflow나 LLM을 먼저 찾기보다는 공식 문서를 먼저 읽는 습관을 들이는 것이 중요함Apache, Python, TOML 등의 공식 문서는 실제로 꽤 잘 작성되어 있음소스에서 직접 배우는 습관은 장기적으로 큰 도움이 됨 도구를 깊이 이해할 것도구를 ‘사용’할 줄 아는 것과, 그것을 ‘이해’하는 것은 다른 수준임도구를 잘 아는 사람은 설정 하나하나를 설명할 수 있음잘 이해하려면 도구의:역사 (왜 만들어졌는가)현재 (누가 관리하는가)한계 (언제 안 맞는가)생태계 (주변 도구, 라이브러리 등)..
Week5 ✅ 진행 현황 및 공유사항이번 주 개인 목표회사에 이식하는 것이 목표이나, 본업무 일정으로 인해 밀릴수도 있습니다...!Week2 wiki 업데이트ClickHouse, DataHub 관련 정보 업데이트 완료했습니다.스터디 일정5월 5일: 휴식4월 28일: 매지컬위크지만 스터디는 예정대로 진행하겠습니다관련 이벤트Databricks Korea DI Days 2025당근페이 Text-to-SQL스터디 진행 내용 (중요) 경태님 의견 (중요)코드를 머지하는걸 너무 부담스럽게 생각하지 않기잘못된 코드나 부족한 코드가 머지된다면 다시 이슈 생성해서 수정하면 됨!그래서 일단 리뷰로 의견도 많이 남겨주시구! 하면 좋겠습니다아 / 여러분들의 의견이 휘발되지않도록 해주세요! (동욱)Glossary / Query 업데이트(..
Week4 Branch Rule 구체화feature/{issue-number}-{issue제목}bug/{issue-number}-{issue제목}Telegram Notification테스트 완료했습니다.GCP 업데이트 후 기존 리소스는 정리기존에 사용하시던 Clickhouse, Datahub는 작동이 곧 중지됩니다! (Week2를 참고하셔서 업데이트해주세요!)나누었던 이야기피드백 환영 (생성된 PR, Issue) 에 의견 많이많이 남겨주세요!차주, 혹은 차차주에는 버전업 논의Chroma로 VectorDB 변경 고려 (윤진님)카테고리를 나누어 데이터 처리 (봉균님)RAG를 빼는 방향도? (호민님)Datahub관해서 어떤점을 보강해야할지? (세영님)Type도 가져와보면 좋을것 같아요!프롬프트 분리작업 순항중(yaml,..
Week3 Issue & PR Template토요일날 업데이트 해두겠습니다! (그전까지 추천해주세요ㅠㅠ!!)PR review & Merge급한건이 아니라면 매주 스터디시간에 Approve 된 내용들에 대해 리뷰 후 머지리뷰는 스터디 전까지 틈틈히 남겨주세요Datahub... Clickhouse..주소 변경 예정입니다 Week2에 업데이트 해두겠습니다.. (GCP 크레딧을 다 썼어요ㅠ!)Keywordopenai swarmagentic(호민님)evaluation은 별도 모듈로 분리 고려숙제Issue & PR template 추천해주세요인과추론 행사전까지 각자 하나정도는 이슈를 해결하거나 진행했으면 좋겠습니다 :)
[모두팝] R1 파헤치기, Ko-R1 개발기 Train-Time & Test-Time Scaling    How can we scale in Test-Time?Learning to Reason with LLMs(2024.09.12) @ OpenAItrain-time compute(log scale), test-time compute(log scale)    DeepSeek-R1-Lite-Preview unleashing supercharged reasoning power (2024.11.20) @ DeepSeekAverage number of thought tokens per problem   Scaling Test Time Compute with Open Models(2024.12.16) @ HuggingFaceNumber of generatio..

반응형