Ash Space
GitHubHuggingFace
  • Contents
  • 🥑Resume / CV
    • Reseume / CV
  • 📄Paper Review
    • Paper List
      • [2017] Attention is all you need
      • [2023] CoVe : Chain of Verification Reduces Hallucination in Large Language Models
      • [2024] RAG Survey : A Survey on Retrieval-Augmented Text Generation for Large Language Models
      • [2023] Interleaving Retrieval with Chain-of-Thought for Knowledge-Intensive Multi-Step Questions
      • [2024] Take a Step Back: Evoking Reasoning via Abstraction in Large Language Models
      • [2020] ColBERT: Efficient and Effective Passage Search via Contextualized Late Interaction over BERT
      • [2024] Retrieval Augmented Generation (RAG) and Beyond
      • [2009] Reciprocal Rank Fusion outperforms Condorcet and individual Rank Learning Methods
      • [2024] Don't Do RAG : When Cache-Augmented Generation is All you Need for Knowledge Tasks
      • [2024] Text2SQL is Not Enough : Unifying AI and Database with TAG
  • 🗂️Research Article
    • Reference List
      • Dataset
      • LLM
      • Prompt Engineering
      • LLMops
      • RAG & Agent
      • Etc
    • Compounded AI System : The Shift from Models to Compound AI Systems
    • LLM과 Grounding
    • Essence of RAG
    • How to reduce Hallucinations
    • Golden Gate Claude Review
    • Editorial Thinking
    • Embedding을 평가하는 방법
    • 나야, Chunk
    • 당신.. Chunking이 뭔지 정확히 알아..?
    • 그래서 제일 좋은 Chunking이 뭔데?
    • 웅장한 대결 AI Agent와 Agentic AI
    • UV써도 괜찮아~ 딩딩딩딩딩
    • 아무도 RAG 평가 셋 만드는 것에 관심가지지 않아~
    • Linguistic Prompts
    • Chroma야, Chunking 평가를 어떻게 한다고?
    • Generations Never Easy
    • Model Context Protocol
    • Chill칠치 못한 Function Calling
    • RAG 평가지표 정복하기
    • LLM Quantization 방법론 알아보기
    • LLM은 더우면 헛소리를 해?
    • Text2SQL 넌 내꺼야!
  • 🏵️Conference
    • 일할맛 판교 3월 세미나
    • LangChainOpenTutorial를 진행하며
    • Talk: Prompt and Language The Science of Prompts 후기
    • 2024년 회고
    • 제 7회 Kako Tech Meet Up 후기
    • Moducon 2023 행사 후기
    • GDGXGDSC DevFest Happy Career 행사 후기
    • 모두를 위한 한국어 오픈액세스 언어모델 못다한 이야기 (feat. 모두연) #1
    • 모두를 위한 한국어 오픈액세스 언어모델 못다한 이야기 (feat. 모두연) #2
    • 맨땅에서 구축해본 개인화시스템 구축기 Session 후기
  • ♟️Basic
    • 00 Introduction
    • 01-1 LLM 지도
    • 01-2 LLM의 중추 트랜스포머 아키텍처 살펴보기
Powered by GitBook
On this page
  1. Conference

GDGXGDSC DevFest Happy Career 행사 후기

2024년 1월 23일

Last updated 6 months ago

GDG x GDSC DevFest Happy Career

지난 1월 20일에 서울 삼성동에 Google Startup Campus에서 진행한 "GDG x GDSC DevFest Happy Career"에 참가하고 왔습니다. 이번 행사의 테마는 "취준"이었는데요, 현재 제 상황과 잘 맞아떨어져서 한번 다녀왔네요. 행사는 아래 식순으로 진행했습니다.

타임 테이블

여기에는 연사가 드러나있지 않은데요, 연사로는 from designer의 커뮤니티 리더분과 네이버에 재직중이신 백엔드 개발자 2분이 발표해주셨습니다. 양쪽 세션 모두 너무 감명깊은 얘기가 많았어요 :)

삼성동에 구글 스타트업 캠퍼스는 처음가봤는데 엄청 웅장하더라구요? 이야,, 아쉽게도 내부 공사중인 부분이 많았지만 건물자체가 세련되었다는 느낌을 받았어요. 그리고 요런 행사마다 절대 까먹을 수 없는게 하나있죠!!! 바로 굿즈-!

역시 이런 굿즈들은 모으면 모을수록 뿌듯합니다ㅎㅎ

연사분들의 내용중 남는게 있다면 네이버 백엔드 개발자분의 연사중 요런말이 계속 맴돌더라구요.

"커리어는 사다리가 아니라 정글짐"

오... 이건좀 와닿는 말이었어요. 제가 이해한바로는 결국 우리의 커리어는 높이 올라가는 사다리보다는 넓게 퍼져있는 정글짐이 될 것이다! 라는 말이었는데 올라가는건 조금씩 조금씩 꾸준히 올라가되 그 너비를 넓혀라는 내용으로 기억에 많이 남네요ㅎㅎ 결국 T자형 인재가 되어라 라는말과 어느정도 맥락이 통한다고 생각합니다! (그와중에 '물경력'의 반대가 '땀경력'이라니 멘트가 너무 유쾌했어요ㅋㅋㅋㅋㅋ)

요것도 기억에 많이 남는 말이었는데, 지금 저와 같은 취준생들은 간혹 완벽함을 바라고 취업준비를 하시는분들이 많으신것 같아요. 저도 어느정도 그랬던것 같구요. 스스로 자각하고 탈피해야하는 것 같습니다 :) 결국 평가는 면접관이 하는거지 본인들이 하는게 아니니까요!!

이건 디자이너분의 강연중 기억에 남는말이었는데 질문이 "같이 협업하면서 좋다고 느꼈던 개발자의 특징"이 무엇인가요? 라고 들어와서 연사분께서 한치의 망설임도 없이 "태도"요!!!! 하셨던 기억이 납니다ㅋㅋㅋㅋㅋ

저도 개발자지만, 사실 대부분의 개발자들이 소통시 상대방에 대한 배려가 많이 무딘것 같아요.. 저도 뜨끔하네요..ㅋㅋ 한번 더 되돌아보고 의지를 불태우는 좋은 시간이었던 것 같습니다 😆

GDG, GDSC, Happy Career, 레츠고우-!
야호!
땀경력 vs 물경력
크... 이게 맞지
ㅋㅋㅋㅋㅋㅋ 너무나도 공감되는..
🏵️