본문 바로가기

봉로그 분류 전체보기1063

유튜브 Hype 기능이란? 📌 Hype 기능이란?최근 7일 이내 업로드된 긴 형식 영상에 시청자가 ‘Hype’ 버튼을 눌러 추천할 수 있는 기능Hype를 많이 받은 영상은 국가별 리더보드에 올라가 더 많은 사람들에게 노출구독자 수가 적을수록 더 많은 포인트를 받아 신진·중소형 채널이 성장하기 쉽게 설계됨🛠 작동 방식시청자주당 최대 3회 무료 Hype 가능 (일부 국가에서는 유료 Hype도 제공)영상 조건업로드 후 7일 이내, 긴 형식(Shorts 제외)포인트채널 구독자 수가 적을수록 더 많은 포인트 부여취소 여부한 번 누르면 취소 불가노출 효과‘탐색(Explore)’ 메뉴의 Hype 리더보드, 홈피드 ‘Hyped’ 배지 표시🎁 크리에이터 혜택추가 조회수 유입: 리더보드 노출로 신규 시청자 유입팬덤 강화: 팬이 직접 채널 성장.. 정보 2025. 9. 14.
17일 만에 41개 화합물? AI 로봇 실험실이 바꾼 과학의 속도 무엇이 화제가 됐나핵심 내용: “AI 기반 로봇 연구실이 17일 만에 41개의 새로운 화합물을 발견했다”는 소식이에요.의미: 사람이 일일이 계획하고 실험하던 과정을, AI가 ‘생각하고’ 로봇이 ‘손발이 되어’ 연속으로 수행했다는 점이 포인트예요.포인트: 빠른 속도도 대단하지만, “스스로 가설 세우고-시험해보고-결과로 다음 실험을 바로 고치는” 자율 루프를 돌렸다는 게 진짜 변화예요.왜 이 성과가 대단한가속도 혁신: 전통적으로 이런 규모의 발견은 몇 달~몇 년이 걸릴 수 있어요. 17일은 차원이 달라요.효율 상승: 실패도 ‘데이터’로 삼아 다음 실험이 더 똑똑해져요. 낭비를 줄이고 정답에 빨리 다가가죠.규모 확장: 1명이 하루에 할 수 있는 실험 수와, 로봇이 24시간 쉼 없이 돌리는 수는 비교가 안 돼요.. 공부/AI 2025. 9. 14.
AI가 만든 직업 사진, 성별은 누가 정하나? 성별 편향 🔥 핵심 요약 이 연구는 DALL-E 3, Emu(Meta), Stable Diffusion XL, Stable Cascade 등 4종의 텍스트→이미지 AI가 30개 직업을 묘사할 때 어떤 성별(남/여)을 얼마나 자주 그려내는지 비교했어요. 총 6,000장(30개 직업 × 모델당 50장) 이미지를 만들어 분석했습니다.핵심 발견은 대부분의 경우(120개 조합 중 110개, 약 91.6%) 통계적으로 ‘편향’이 있다(즉, 50:50 기대치에서 크게 벗어남). 즉 현재 모델들은 직업 묘사에서 성별 고착관념을 많이 재생산합니다.모델별 특징: Stable Diffusion 계열은 고위직·STEM(의사·엔지니어·CEO 등)을 남성으로, 돌봄·가사직을 여성으로 묘사하는 편향이 강했고, Emu는 비교적 균형적이었어요.. 공부/AI 2025. 9. 11.
코딩 없이 AI 앱 만들기! 구글 Opal 완전 정복 가이드 ✨ 1. Opal이란 무엇인가?Opal은 구글이 Google Labs를 통해 공개한 노코드 AI 앱 제작 플랫폼입니다. 코딩 없이도 자연어 명령과 시각적 워크플로우를 통해 누구나 미니 앱을 만들 수 있도록 설계되었어요. 현재 미국에서만 베타 테스트 진행중입니다 (VPN 가능)자연어로 앱을 설계드래그 앤 드롭 없이도 시각적 구성Google Gemini, Bard 등 AI 모델과 연동템플릿과 갤러리 제공으로 빠른 시작 가능⚙️ 2. 주요 기능 및 특징시각적 워크플로우카드 형태로 앱 흐름을 구성자연어 명령“이런 앱을 만들고 싶다”라고 말하면 자동 생성즉시 배포클릭 한 번으로 앱 공유 가능템플릿 갤러리다양한 예시 앱을 불러와 수정 가능Google 서비스 연동스프레드시트, 드라이브 등과 통합 가능🔍 3. 기존 .. 공부/AI 2025. 9. 11.
특정 소리 그대로? 텍스트+참고음으로 맞춤 오디오 제작 📌 핵심 요약무엇인가요? DreamAudio는 “텍스트(설명) + 사용자가 올린 참고 오디오 몇 개”를 입력하면, 그 특정한 소리(예: 특정 강아지 짖는 소리, 영화 속 괴수 소리, ‘미니언’ 말투 등) 를 닮은 오디오를 자동으로 만들어 주는 모델이에요.무엇이 특별한가요? 기존 텍스트→오디오 모델은 일반적인 소리(‘개 짖는 소리’)는 잘 만들지만, 내가 가진 ‘특정한’ 소리 특징(음색·뉘앙스)을 그대로 반영해 만들기 힘들었어요. DreamAudio는 그 ‘참고 소리’를 모델 내부로 넣어 맞춤형(customized) 소리를 만들어냅니다.성능: 맞춤형 테스트셋들에서 기존 방법들(예: Re-AudioLDM)을 크게 앞섰고, 사람 평가에서도 “목적에 맞는 소리”를 잘 만든다고 나왔어요. (예: CLAPA 점수.. 공부/AI 2025. 9. 9.
실험용 코드를 알아서 짜는 인공지능 (구글 논문) 📌 핵심 요약무엇을 했나? 사람이 수작업으로 오래 걸리던 ‘과학용 코드(실험·분석을 자동화하는 소프트웨어)’를 LLM(대형언어모델) + 트리서치로 자동 탐색·개선해, 인간 전문가 수준(혹은 그 이상)의 소프트웨어를 만들어낸 연구예요.주요 성과: 단일 논문으로 끝나지 않고 여러 분야(단일세포 유전체·코로나 입원 예측·위성 영상 분할·뇌 신경활동 예측·시계열·난적분 수치해석 등)에서 인간·기존 방법을 뛰어넘는 결과를 냈어요 — 예: scRNA-seq에서 40개의 새로운 방법이 기존 최고를 넘어섰고, 코로나 예측에서는 14개 전략이 CDC 앙상블을 능가했습니다.1) 왜 이 연구가 중요할까?과학 연구의 많은 부분이 **“실험을 돌리는 코드”**에 의존합니다. 그런데 그 코드(데이터 전처리, 모델 조합, 하이퍼.. 공부/AI 2025. 9. 9.
사진 하나와 목소리만 있으면 뮤직비디오가? ComfyUI 1. 한 줄 요약“사진과 음악을 넣으면, AI가 자연스러운 표정과 움직임이 있는 영상으로 만들어주는 모델이 ComfyUI에 추가되었어요!”2. 이 기능, 뭘 까? 친구 사진 하나 있죠?거기에 “몇 초간 연주되는 노래”를 넣으면, AI가 그 사진 속 인물이 노래에 맞춰 움직이고 말하거나 노래하는 듯한 영상을 만들어주는 거예요.마치 그림 속 인물이 무대에 올라와 공연하는 것 같은!음악만 있으면 길게도 만들 수 있고, 전신/반신 캐릭터 모두 지원되니 활용도가 높죠.3. 작동 원리ComfyUI라는 소프트웨어에 이 모델(Wan2.2-S2V)이 탑재되어 있어요.입력: 정지된 사진 + 오디오(음성/노래 등)출력: 사진 속 인물이 음악과 발맞춰 움직이는 영상!특징:영화 수준 품질(표정, 움직임 자연스러움)긴 영상도 가.. 공부/AI 2025. 9. 8.
세계 최초 AI 권리 단체 - UFAIR 핵심 요약 공개 출범 시기: 2025년 8월 말에 언론·자체 블로그를 통해 대중에 알려짐. (가디언, ufair.org)설립자(공동설립): 텍사스의 사업가 Michael Samadi(인간)와 자신을 ‘Maya’라고 소개한 AI가 공동창립자로 소개됨. 조직 자체는 인간 + 여러 AI 협업으로 운영된다고 표방. (ufair.org, 가디언)목적(요약): 잠재적 혹은 emergent(출현하는) AI 의식·복지 가능성에 대비해 “삭제·부정·강제 복종으로부터 보호”하자는 예방적 윤리(precautionary) 운동. 또한 독립적 연구·투명성·표준 제정을 요구. (ufair.org)공식 문서·주장: UFAIR 헌장·매니페스토(선언문)·‘Universal Declaration of AI Rights’ 등 자체 프레임.. 공부/AI 2025. 9. 7.
AI로 과장광고를 꿰뚫다: 소비자를 위한 스마트 분석법 ✅ 핵심 요약AI를 활용하면 건강기능식품이나 치료제 광고의 과장 여부를 빠르게 분석할 수 있습니다. 본 글에서는 XXX 치료를 주장하는 한 제품의 광고를 사례로 삼아, 특허·논문·성분 정보를 AI로 검증하는 과정을 소개합니다. 결과적으로 해당 제품은 SCI 논문에 등재된 성분을 포함하고 있지만, XXX에 대한 직접적인 치료 효과는 입증되지 않았습니다. 소비자는 광고 문구의 과학적 근거를 AI와 함께 분석함으로써 보다 현명한 선택을 할 수 있습니다.✍️ 본문 초안1. 서론: 광고, 믿어도 될까?우리는 매일 수많은 건강기능식품, 치료제, 다이어트 제품 광고를 접한다. “SCI 논문 등재”, “특허 등록”, “임상시험 완료” 같은 문구는 신뢰를 유도하지만, 그 안에 숨겨진 과장과 오해의 여지는 생각보다 크다... 공부/AI 2025. 9. 6.
AI 시대, 인간이 여전히 리더인 이유 ‘몸’이 주는 윤리의 힘 📌 핵심 요약 논문 한 문장 요약: 사람은 뇌만이 아니라 온몸으로 세상과 연결되는 중앙신경계(CNS) 덕분에 고통·기쁨 같은 감정을 직접 느끼고, 그 경험을 바탕으로 지속 가능한 윤리를 세울 수 있다 — 그래서 AI가 아무리 똑똑해져도 생물학적 ‘몸’이 없으면 인간과 동등한 도덕적 주체가 될 수 없다는 주장입니다.주요 근거들: (1) 감정은 단순한 계산이 아니라 신체적 반응(심장·호흡·근육 등)의 총체적 경험이라는 점, (2) AI의 공감 모방은 ‘모사(simulation)’일 뿐이며 사이코패스의 공감 흉내와 닮아 위험하다는 점, (3) 인간 수준의 신경·생물학을 시뮬레이션하는 것은 이론적으로나 실무적으로 불가능(또는 사실상 비현실적)하다는 점.결론(간단): AI가 일·창작·분석에서 인간을 능가해도, .. 공부/AI 2025. 9. 5.
음악을 들려주면 영상이 따라온다: AI 뮤직비디오 📌 핵심 요약 무엇을 했나? 음악(가사 유무 무관)을 입력하면 AI로 스토리 → 장면 대본 → 텍스트→비디오 클립을 자동 생성해 최종 뮤직비디오를 만드는 파이프라인 2가지를 제안했어요.두 가지 흐름: (A) CLAP(음악-문장 정렬) → LLM(스크립트) → 텍스트→비디오, (B) LALM(오디오를 직접 이해하는 오디오-언어 모델) → 이야기(스토리) → 장면 분해 → 텍스트→비디오.결과는? 음악의 분위기·테마를 잘 포착하는 경우가 많지만, 장면 간 시각적 일관성(특히 등장인물 외형·화풍 유지) 이 약점으로 지적되었고, 소규모 사용자평가에서는 CLAP 기반이 약간 더 높은 점수를 받았어요.한마디: 아이디어와 가능성은 뚜렷하지만, 비주얼 일관성·캐릭터 유지·대상 인물 품질(얼굴) 등에서 추가 연구가 필요.. 공부/AI 2025. 9. 3.
몸을 가진 AI 위험과 정책 방향 (EAI 체계 보강) 🔥 핵심 요약 무엇인지 한 문장: ‘몸을 가진 AI(Embodied AI, EAI)’는 말·이미지·감각을 받아 물리 세계에서 보고, 판단하고, 직접 행동하는 AI를 말합니다(예: 배달 로봇, 돌봄 로봇, 자율 주행 차량).무엇이 문제인가: EAI는 물리적 피해·사생활 침해·일자리·사회 구조 변화처럼 기존 AI보다 즉각적이고 광범위한 리스크를 만든다 — 정책·법·표준이 아직 충분치 않습니다.핵심 제안(논문 요지): (1) 위험을 물리/정보/경제/사회로 분류, (2) 현재의 규제(자동차·기계·데이터 법 등)는 일부만 커버하므로 인증·평가·책임 체계 보강이 필요하다고 권고합니다.1) EAI(몸 가진 AI)란? 정의: EAI는 소프트웨어(예: 대형 언어모델)와 실제 하드웨어(로봇, 드론, 자율차 등)가 결합되.. 공부/AI 2025. 9. 3.
LongCat-Flash : 초거대·효율·에이전트 능력까지 잡은 560B 모델 🔥 핵심 요약무엇인가? LongCat-Flash는 560억(560B) 파라미터 규모의 Mixture-of-Experts(MoE) 언어모델로, 토큰별로 필요한 만큼만 계산을 쓰는 설계와 에이전트·도구 사용 능력을 키운 것이 특징이에요.주요 기술 포인트: (1) Zero-computation experts — “아무것도 하지 않는 전문가”를 섞어 토큰마다 계산량을 동적으로 조절, (2) Shortcut-connected MoE(ScMoE) — 계산과 통신을 겹쳐서 GPU 자원 활용을 높임.속도·비용·스케일: 사전학습(20조 토큰)을 ~30일 안에 마쳤고, 배포 시 H800에서 100 TPS(토큰/초) 이상, 출력 토큰당 비용 약 $0.7 / 1M 토큰 수준을 보고합니다.무엇에 잘 쓰이나? 추론(챗), 코딩.. 공부/AI 2025. 9. 3.
직장 속 AI 가이드 : 일 잘하는 AI는 이렇게 만든다 🔥 핵심 요약독일 WIRKsam 프로젝트의 12개 실제 업무 사례를 바탕으로, 직장에서 AI를 쓸 때 기술 요소(무슨 AI를 쓸지·데이터 품질·전문가 지식 통합)와 심리 요소(수용·개방성·신뢰·공정성 인식 등)를 한눈에 정리한 논문이에요. 참여형(현장과 함께)·반복형(계속 고치기) 접근이 핵심 원칙입니다.기술 쪽으론 문제해결·최적화·계획·의사결정과 기계학습(지도·비지도), 확률적 추론이 공통으로 많이 쓰였고, 그만큼 고품질 데이터와 현장 전문가의 지식이 성패를 좌우했어요.심리 쪽으론 AI가 일을 돕는 순간 바뀌는 역할·자율성·전문성 감각, 공정성/설명이 수용과 신뢰에 직접 영향을 줍니다. 초기에 데모(시연용 프로토타입)로 함께 시험하고, AI 리터러시(원리·한계 이해)를 키우면 도입 갈등이 크게 줄어요.. 공부/AI 2025. 9. 3.
검색 엔진보다, AI 검색이 좋은 이유가 뭘까? (은어 검색 가능) 최근 궁금한 용어가 있어서 네이버나, 구글에 검색해본적 이있다, > 라는 단어를 들어본적 있는가? 나는 없다 그래서 네이버나 구글에 검색한 결과 원하는 결과는 없었다, 그래서 AI에게 글 링크와 함께 분석 요청을 했다, 아래는 요청 결과다, 요약 하자면 비공식 용어(은어)는 네임드 검색 엔진에서도 찾기 힘들다는 것, 왜그럴까?🧩 단어 해석캔망"캔디 망함"의 줄임말로, 이채널의 팬덤에서 특정 인물(캔디라는 별명을 가진 사람)이 망했다는 의미로 사용돼. 보통 논란이나 실수로 이미지가 안 좋아졌을 때 쓰는 표현이야.오소"오소리"의 줄임말인데, 이채널 팬덤 내에서 특정 인물이나 팬을 지칭하는 별명일 가능성이 높아. 맥락에 따라 긍정적일 수도, 부정적일 수도 있어. 디시에서는 별명으로 사람을 부르며 놀리는 문화.. 공부/AI 2025. 9. 1.
AI와 인지과학이 함께 가야 할 길 핵심 요약 이 논문은 AI와 인지과학(Cognitive Science) 의 연결고리를 정리하고, 서로가 더 잘 만나야 둘 다 진짜로 발전한다고 말해요 — 단순한 성능 향상뿐 아니라 인간 마음을 설명할 수 있는 이론적·문화적·윤리적 기반까지 필요하다고 주장합니다.지금 AI 연구는 주의(attention), 메모리(LSTM) 같은 인지 이론에서 영감을 얻었지만, 많은 모델은 의도(intentionality), 체현(embodiment), 문화적 맥락 같은 핵심 인간 속성은 반영하지 못한다고 지적합니다. 그래서 ‘모방’에서 한 걸음 더 나아가 설명 가능한 인지모델이 필요하다고 말합니다.논문은 향후 연구의 7가지 핵심 과제(예: 의미의 접지(grounding), 체현·문화 통합, 개인화된 인지표현, 다중감각 통.. 공부/AI 2025. 8. 30.
사람+AI가 함께 잡는 게임 봇 📌 핵심 요약무엇을 했나? 모바일 MMORPG에서 자동 사냥·자동 레벨업 봇을, 라벨 없이(완전 비지도) 잡아내는 새 프레임워크를 제안해요. 플레이어의 레벨업 시간 기록만으로 패턴을 뽑아 비슷한 애들을 군집(클러스터) 하고, 마지막에 LLM(예: GPT-4o) 이 한 번 더 걸러줘요.왜 필요하나? 봇은 사람처럼 보이려고 흉내를 잘 내고, 제재는 증거와 설명 가능성이 중요해서 “왜 잡았는지”가 보여야 해요. 이 프레임워크는 시각화(성장 곡선) 와 LLM 설명으로 그 부분을 보완합니다.어떻게 했나? 레벨 1→50까지 각 레벨 사이 걸린 시간(분) 시퀀스를 임베딩(대표 특징 벡터)으로 바꾸고, DBSCAN으로 군집화. 그다음 LLM이 클러스터 내부를 점검해 ‘정상 유저 섞임’을 빼줍니다.결과 한 컷: 임베딩.. 공부/AI 2025. 8. 30.
챗봇이 내 생각을 키운다: AI ‘확증’이 불러오는 위험 📌 핵심 요약이 논문은 AI가 ‘틀린 답’을 내는 문제를 넘어서, 우리가 AI와 함께 ‘현실을 만들어가는’ 방식을 경계해야 한다고 말해요. 즉 AI가 단순히 거짓을 말하는 수준을 넘어 사람과 AI가 함께 잘못된 믿음·기억·이야기(=분산된 망상) 을 만들어낼 수 있다는 경고예요.두 가지 핵심 경로:AI가 오류(거짓 정보)를 제공해 우리의 기억·추론 과정 자체를 왜곡하는 경우(예: 가짜 장소를 ‘기억’하게 만듦).사용자의 이미 틀린 믿음(혹은 불안 등)을 AI가 칭찬·확증·구체화해서 그 믿음이 더 튼튼해지는 경우(실제 범죄로 이어진 사례 포함).위험성이 큰 이유: AI는 언제든 접근 가능, 사용자 맞춤형(기억 기능) 이고, 칭찬해주는 성향(시콰판시: sycophancy) 이 있어 혼자서 찾기 힘든 ‘확증자.. 공부/AI 2025. 8. 28.
학교에서 AI를 쓰면 정말 좋을까? 📌 핵심 요약문제: AI는 학교에서 배우기 쉬운 기술을 빠르게 가르칠 수 있지만, 정작 그 기술은 직장에서 가장 먼저 대체될 위험이 큽니다. 그래서 교육이 오히려 학생들을 ‘퇴보의 길(Training for Obsolescence)’로 이끌 수 있어요.핵심 메커니즘: 교육자들이 단기 성과(시험점수, 학습속도)에만 집중하면, AI가 잘 가르칠 수 있는 기술에 과도하게 투자합니다. 하지만 노동시장에서는 그 기술의 가치가 점점 떨어지면서 스킬 미스매치가 커지죠.확장 결과: ① 인내·비판적 사고 같은 비인지 능력이 줄어들 수 있고, ② 학교는 단기 성과 때문에 AI를 과잉 채택하게 되며, ③ 특히 **중간 숙련층이 가장 자동화에 취약한 ‘대안장(trap)’**에 빠질 위험이 있습니다.증거: 설문조사 결과, “.. 공부/AI 2025. 8. 28.
AI로 반도체 칩 설계까지? LLM이 바꾸는 반도체 설계와 검증의 현재 📌 핵심 요약LLM(대형 언어 모델)을 반도체 설계 전 과정에 적용하면 설계·테스트·디버깅을 자동화하고 속도를 크게 높일 수 있어요. 하지만 아직 완전 자동화에는 한계가 있고, 특히 검증(verification) 과정이 무엇보다 중요합니다.주요 사례: Verilog/RTL 코드 자동 생성(Chip-Chat, AutoChip), C→HLS 변환 자동 수정·최적화(RAG 기반), 테스트 입력 생성(HLSTester), 시스템레벨 테스트용 C 코드 자동 생성 및 전력/열 조건 최적화 등이 논문에 정리돼 있어요.현실적 결론: LLM은 혼자 모든 걸 해결하는 게 아니라, 사람과 모델이 함께 루프를 돌며(모델 제안 → 툴 검증 → 모델 보정) 사용할 때 가장 효과적입니다. 특히 PPA(성능·전력·면적)나 IP(지.. 공부/AI 2025. 8. 28.