ai 강의 (1) 썸네일형 리스트형 [독후감] 박태웅의 AI 강의 2025 / 리눅스, 유닉스 공부하는 것보다 AI 공부하는 것이 더 빠를 수도 있다..? 이 포스팅을 읽기 전 참고 사항- 개인적인 후기일 뿐, 독서 전 반드시 참고할 건 아니니 가볍게 읽기를 바란다. -책의 내용이 일부 포함되어 있다. 챗GPT는 3,000억 개의 토큰과 5조 개의 문서로 학습했습니다. 그런데 라마3는 무려 15조 개의 토큰을 학습했 습니다. 챗GPT보다 토큰이 무려 50배나 많습니다. 여기에다 컴퓨터 코드도 이전 버전인 라마2보다 네 배나 많이 학습했습니다.인공지능에는 규모의 법칙이란 게 있습니다. 컴퓨팅 파워를 더 많이 넣을수록, 학습 데이터를 더 많이 넣을수록, 매개변수를 크게 잡을수록 인공지능의 성능이 더 좋아지더라는 것인데요, 지금까지는 최적의 비례라는 게 있어서 셋이 함께 커질 때 효율이 높다고 돼 있었습니다. 실제로도 그렇고요.그런데 .. 이전 1 다음