AI 뉴스목록
-
구글 검색, 텍스트뿐 아니라 영상 검색까지 가능한 AI 혁신!구글은 핵심 사업 영역인 검색을 대대적으로 개편한다. 구글은 AI 개발자 컨퍼런스인 I/O에서 텍스트 뿐 아니라 영상 검색까지 가능한 새로운 인공지능 기능을 발표했다. 이번 업데이트를 통해 구글은 검색을 단순히 웹사이트 찾는 도구 이상으로 발전시키고자 한다. 구글 검색 부문 총괄 리즈 레이드(Liz Reid) 부사장은 블로그 포스트에서 "생성형 인공지능과 함께 구글 검색은 당신이 상상할 수 있는 것보다 더 많은 일을 할 수 있다"고 밝혔다. "연구, 계획, 아이디어 발굴 등 사용자가 궁금한 모든 것과 해야 할 일을 물어볼 수 있으며, 구글이 검색 과정을 도와줄 것"이라고 덧붙였다. 최근 몇 년간 오픈AI의 챗GPT 출시 등 생성형 인공지능 기술이 급속히 발전함에 따라 구글 검색 역시 변화하고 있다. 챗GPT, 앤트로픽, 퍼플렉시티, 오픈AI의 GPT-4를 활용하는 마이크로소프트 빙 등 다양한 인공지능 기반 앱과 서비스가 등장하며 단순히 링크만 제공하는 구글 검색에 도전장을 내밀었다. 이러한 흐름에 맞춰 구글은 새로운 기능을 통해 차별화를 꾀하고 있다. AI 개요: 검색 결과 상단에 요약 답변 제공 오늘부터 미국에서 대부분의 검색 질문에 대한 완전한 인공지능 생성 답변이 검색 결과 페이지 상단에 표시된다. 구글은 이 기능을 2023년 I/O에서 처음 선보였지만, 당시에는 Search Labs 가입자만 미리 이용할 수 있었다. Search Labs은 일반 출시 앞서 새로운 기능을 체험할 수 있는 플랫폼이다. 이번 업데이트를 통해 수억 명의 미국 사용자가 AI 개요 기능을 이용할 수 있게 됐으며, 연말까지 10억 명 이상의 전 세계 사용자들이 이용할 수 있게 될 예정이다. 레이다 부사장은 Search Labs를 통해 이 기능을 수십억 번 이용했다고 밝혔다. 또한 AI 생성 답변에 포함된 링크는 일반 웹사이트 목록에 나타나는 링크보다 더 많이 클릭된다고 덧붙였다. 이는 게시자들이 우려해왔던 부분이다. 레이다 부사장은 "이 기능을 확대하면서도 게시자와 크리에이터에게 가치 있는 트래픽 유도에 계속 집중할 것"이라고 말했다. AI 구성 결과: 검색 결과 정리 및 아이디어 발굴 미국에서 식당, 레시피, 영화, 음악, 책, 호텔, 쇼핑 등 특정 검색어를 입력하면 AI를 활용하여 정리된 새로운 검색 결과 페이지가 제공된다. 레이다 부사장은 블로그 게시물에서 "사용자가 아이디어를 찾을 때 검색은 생성형 인공지능을 활용하여 사용자와 함께 브레인스토밍을 하고 탐색하기 쉬운 AI 구성 결과 페이지를 만들 것"이라고 설명했다. 복합 검색: 단일 질문으로 복잡한 답변 얻기 Search Labs 가입자는 단일 질문으로 복잡한 질문을 하고 한 페이지에서 답변을 얻을 수 있다. 구글 블로그 게시물에 나와 있는 예처럼 "보스턴 최고의 요가 또는 필라테스 스튜디오를 찾고 Beacon Hill에서 소개 제안 및 도보 시간에 대한 세부 정보를 보여주세요."라고 하면, 이에 대한 응답으로 구글은 보스턴의 비컨 힐 지역 근처에 있는 가장 높은 등급의 요가 및 필라테스 스튜디오를 표시하고 쉽게 탐색할 수 있도록 지도에 표시하기도 한다. 또한 Search Labs에 가입자들이 "그룹을 위한 준비하기 쉬운 3일 식사 계획 만들기"와 같은 질문을 할 수 있도록 하고 AI 생성 계획의 개별 결과를 다른 것으로 교체할 수 있도록 할 수도 있다. Search Labs: 미래 검색 기능 미리 체험 마지막으로 Search Labs 가입자는 텍스트나 이미지 대신 동영상을 검색 질문으로 활용할 수 있다. 예를 들어 중고품 가게에서 구입한 레코드 플레이어가 작동하지 않고 바늘이 달린 금속 부품이 예상치 못하게 움직이는 경우, 사용자는 레코드 플레이어 작동하는 모습을 촬영한 영상을 검색 질문으로 활용할 수 있다. 레이드 부사장은 블로그 포스트에서 "영상 검색을 통해 문제를 설명하는 데 필요한 단어를 찾는 시간과 번거로움을 줄일 수 있으며 단계별 안내와 문제 해결을 위한 리소스를 포함하는 AI 개요를 제공받을 수 있다"고 설명했다. 구글은 인공지능 기술을 활용하여 검색 기능을 크게 개선하고 있다. AI 개요, AI 구성 결과, 복합 검색, Search Labs 등 다양한 기능을 통해 사용자들에게 더욱 편리하고 효율적인 검색 경험을 제공하고자 한다. 구글 검색의 인공지능 혁신은 앞으로 더욱 빠르게 진행될 것으로 예상된다.
-
구글, 영상 제작 인공지능 '베오'와 이미지 생성 '이마젠 3' 공개!구글은 I/O 개발자 컨퍼런스에서 새로운 인공지능 미디어 제작 모델 두 가지를 공개했다. '베오'는 텍스트 입력만으로 고화질(1080p) 영상을 제작할 수 있는 모델이고, '이마젠 3'은 최신 텍스트-이미지 변환 프레임워크이다. 텍스트로 영상 만들기: 베오(Veo) 베오는 사용자가 입력한 텍스트를 이해하여 원하는 영상을 제작한다. 구글은 베오가 "자연어와 시각적 의미에 대한 발전된 이해"를 바탕으로 1분 이상 분량의 영상을 만들 수 있다고 밝혔다. 타임랩스 같은 영화 제작 기법도 이해한다. 구글은 예술가의 일자리를 탈취하지 않는다는 점을 강조하기 위해 베오의 역량을 선보이는 홍보 영상을 제작했다. 영상에는 배우 도널드 글로버와 그의 스튜디오가 텍스트를 입력하여 유럽 집 앞에 컨버터블이 도착하는 장면과 바다를 가로지르는 요트 장면을 만드는 과정이 나온다. 구글은 베오가 기존 모델보다 실제 물리 현상을 더 사실적으로 재현하고 고해상 영상 처리도 개선했다고 설명했다. "모두가 감독이 될 수 있다"는 글로버의 말은 구글과의 파트너십을 잘 보여준다. 텍스트로 이미지 만들기: 이마젠 3(Imagen 3) 이마젠 3은 구글 최고의 텍스트-이미지 변환 모델이다. 사실적이고 생동감 넘치는 이미지를 생성하며 이전 모델보다 불필요한 요소가 적다. 실제 성능은 OpenAI의 Dall-E 3과의 비교에서 판가름날 것이다. 구글은 이마젠 3이 텍스트 입력을 더 정확하게 처리하고, 긴 설명도 더 자세하게 반영한다고 밝혔다. 음악 제작 인공지능 샌드박스도 공개 구글은 짧은 시간 동안 음악 및 비트 제작을 도와주는 '뮤직 AI 샌드박스'도 공개했다. 아직 초기 단계이지만 흥미로운 데모를 선보였다. 인공지능의 미래는? 구글의 최신 인공지능 미디어 제작 도구는 인공지능이 발전하고 있다는 사실을 다시 한 번 확인시켜준다. 하지만 이 기술들이 우리 삶을 향상시키고 진정한 예술 작품을 창작할 수 있을지 여부는 미지수이다. 인공지능 총체적 지능(AGI)가 등장하거나 우리 문명이 붕괴될 때까지 구글 I/O 컨퍼런스를 지켜봐야 할 것이다.
-
구글, AI 안경으로 세상을 알아 가는 '프로젝트 아스트라' 공개구글은 I/O 2024 개발자 컨퍼런스에서 '프로젝트 아스트라(Project Astra)'라는 새로운 AI 기능을 공개했다. 이 프로젝트는 스마트폰 카메라와 인공지능을 활용하여 일상 속 문제 해결을 돕는다. 실시간 정보 처리로 일상 도움 프로젝트 아스트라는 뷰파인더를 기반으로 하는 앱 형태이다. 사용자가 카메라를 사무실 주변으로 돌리면서 "소리가 나는 것 알려줘"라고 말하면, 아스트라 AI가 "스피커가 보여요. 소리를 내는 거죠"라고 응답한다. 사용자가 스피커 부분을 가리키면 "저건 트위터라고 해요. 고주파 사운드를 내는 부분이죠"라고 세밀하게 설명해준다. 프로젝트 아스트라는 단순한 물체 인식뿐 아니라 창의적인 질문에도 응답한다. 예를 들어 테이블 위 크레용을 가리키면 "색채로 가득찬 창작을 만들 크레용이군요" 라고 시적인 표현을 답변한다. 기록 정보 활용하여 잊어버린 물건 찾기 더욱 놀라운 점은 프로젝트 아스트라가 시야 밖에 있는 물건도 찾을 수 있다는 것이다. 사용자가 "안경 봤던 곳 기억해?"라고 물으면 "빨간 사과 옆 책상에 있었어요"라고 정확하게 답변한다. 이처럼 아스트라는 실시간 영상과 음성 정보를 처리하는 동시에 기록된 정보를 활용한다. 따라서 시야 밖에 있던 안경도 이전에 본 정보를 바탕으로 위치를 추측할 수 있다. AI 안경 착용 시 시각적 정보 활용 프로젝트 아스트라 영상 후반부는 가상의 AI 안경을 착용한 시점을 보여준다. 안경 카메라가 칠판 다이어그램을 인식하고 "시스템 속도 향상 위해 뭘 추가할 수 있을까?"라는 질문에 "서버와 데이터베이스 사이에 캐시 추가하면 속도 빨라질 수 있어요"라고 답변한다. 사용자가 칠판에 그려진 고양이 그림을 보면서 "이게 뭘 떠올리게 해?"라고 묻자 아스트라는 "슈뢰딩거의 고양이"라고 대답한다. 또한 장난감 호랑이와 골든 리트리버를 가리키면 "이 둘에게 밴드 이름 좀 지어줘"라는 요청에 "황금 줄무늬(Golden Stripes)"라고 답변한다. 프로젝트 아스트라의 기술 데미스 하사비스 구글 딥마인드 CEO는 "프로젝트 아스트라의 에이전트는 연속적으로 비디오 프레임을 인코딩하고, 비디오와 음성 입력을 이벤트 타임라인으로 결합하며, 효율적인 정보 복원을 위해 이를 캐싱하여 빠르게 정보를 처리하도록 설계됐다"고 설명했다. 출시 시기와 향후 전망 프로젝트 아스트라는 아직 초기 단계에 있으며 출시 계획은 명확하지 않다. 하지만 하사비스 CEO는 미래에 이러한 에이전트들이 "휴대폰이나 안경을 통해" 사용될 수 있다고 언급했다. 이 안경이 실제 상품인지 구글 글래스의 후속 제품인지는 아직 알 수 없지만, 하사비스 CEO는 "일부 기능은 올해 하반기 제미나이 앱 등 구글 제품에 적용될 예정"이라고 밝혔다.
-
구글, 개발자 친화적인 가벼운 인공지능 '제미나이 1.5 플래시' 출시!구글은 개발자 컨퍼런스 I/O에서 인공지능 모델 제미나이 그룹의 업그레이드를 발표했다. 이번에 공개된 '제미나이 1.5 플래시'는 속도와 효율성을 최적화한 새로운 모델이다. 텍스트 요약, 채팅봇, 이미지 캡션 생성 등 다양한 활용 데미스 하사비스(Demis Hassabis) 구글 딥마인드 연구소(DeepMind) CEO는 블로그 포스트에서 "제미나이 1.5 플래시는 요약, 채팅 응용 프로그램, 이미지 및 비디오 캡션, 문서 및 표 데이터 추출 등에 탁월하다"고 밝혔다. 하사비스는 개발자들이 2월 발표된 제미나이 프로보다 더 가볍고 저렴한 모델을 필요로 하기 때문에 제미나이 1.5 플래시를 개발했다고 덧붙였다. 제미나이 1.5 프로는 작년 발표된 기존 제미나이 모델보다 더 효율적이고 강력하다. 기존 프로 모델보다 가볍고 저렴, 성능 유사 제미나이 1.5 플래시는 구글 최소형 모델인 제미나이 1.5 나노와 제미나이 1.5 프로 사이에 위치한다. 나노는 기기에서 로컬로 실행되는 반면, 플래시는 프로보다 가볍지만 동등한 성능을 가진다. 1500페이지 문서 분석, 3만 줄 코드 이해 가능 구글은 '증류(distillation)'라는 과정을 통해 프로의 가장 필수적인 지식과 기술을 플래시에 전달하여 가벼운 모델에도 강력한 성능을 구현했다. 이를 통해 플래시는 프로와 동일한 다중 모달(multimodal) 기능과 100만 토큰의 긴 컨텍스트 윈도우(텍스트 양)를 활용할 수 있다. 즉, 플래시는 1500페이지 문서 또는 3만 라인 이상의 코드베이스를 한 번에 분석할 수 있다. 하지만 제미나이 1.5 플래시는 일반 사용자를 위한 것이 아니다. 개발자들이 구글 기술을 사용하여 자체 인공지능 제품과 서비스를 구축하는 데 더 빠르고 저렴한 방법을 제공한다. 플래시 출시와 더불어 구글은 제미나이 1.5 프로도 업그레이드했다. 코드 작성, 추리, 오디오 및 이미지 분석 기능이 향상되었다고 밝혔다. 하지만 가장 큰 업그레이드는 올해 말 프로의 컨텍스트 윈도우를 기존 2배인 200만 토큰으로 늘린다는 발표였다. 이를 통해 프로는 2시간 분량의 동영상, 22시간 분량의 오디오, 6만 라인 이상의 코드, 140만 단어 이상의 텍스트를 동시에 처리할 수 있게 된다. 제미나이 1.5 플래시와 프로는 현재 구글의 AI 스튜디오와 버텍스 AI에서 공개 프리뷰로 이용할 수 있다. 또한 구글은 오늘 개방형 모델 제마 2 출시도 발표했지만, 이 업데이트는 인공지능 앱과 서비스 개발을 좋아하는 개발자 또는 전문가를 위한 것이 일반 사용자 대상은 아니다.
-
B2B 시장에도 AI가전… 삼성전자 ‘AI가전=삼성’ 생태계 확장삼성전자가 AI가전을 B2B 시장에 공급하며 ‘AI가전=삼성’ 생태계 확장에 나선다. 삼성전자는 지난 9일 출시한 신제품 ‘비스포크 AI 무풍 시스템에어컨 인피니트 라인’을 ‘그란츠 리버파크’ 시행사 디에이치프라프티원에 공급하는 MOU를 체결했다. 또한 ‘비스포크 AI 무풍 시스템에어컨 인피니트 라인’과 함께 공급하는 냉장고, 식기세척기, 인덕션, 오븐 등 빌트인 가전에도 스마트싱스 연결을 지원해 에너지 절감뿐 아니라, 다양한 편리함으로 쾌적한 주거환경을 소비자들에게 제공할 계획이다. 삼성전자는 이번 수주를 시작으로 고급 빌라, 타운 하우스, 시니어 타운 등 다양한 B2B 시장에 ‘비스포크 AI 무풍 시스템에어컨 인피니트 라인’ 공급을 지속 확대하는 한편, △비스포크 AI 콤보 △비스포크 AI 스팀 △AI 기능이 탑재된 Neo QLED 8K TV 등 AI가전으로 아파트, 오피스텔 등 주거공간뿐 아니라, 상업·교육시설, 전시장 등 B2B 시장 공략에 적극 나선다는 계획이다. AI 기능을 더욱 강화한 2024년형 ‘비스포크 AI 무풍 시스템에어컨 인피니트 라인’은 프리미엄 디자인과 고효율 냉방 성능은 물론, 사람의 움직임을 감지하는 레이더 센서(Radar Sensor)를 탑재해 AI 기능을 강화한 것이 특징이다. ‘AI 부재 절전’ 기능은 레이더 센서가 사람의 움직임을 감지해 사용자가 없다고 판단하면 절전 운전으로 자동 전환하고, 사용자의 부재 패턴을 학습해 점차 빠르게 절전 운전으로 전환해 불필요한 에너지 소비를 줄여준다. 또한 공간 내 활동량의 변화를 감지해 냉방 세기와 풍량을 알아서 조절하는 ‘동작 감지 쾌적’ 기능도 제공한다. 예를 들어 운동이나 청소 등 활동량이 많을 경우에는 냉방 세기를 올려 쾌적함을 유지할 수 있도록 해준다. 삼성전자 한국총괄 오치오 부사장은 “이번 비스포크 AI 무풍 시스템에어컨 인피니트 라인 공급으로 입주민들이 삼성의 AI를 활용한 스마트하고 편리한 일상을 즐길 수 있게 됐다”며 “앞으로 B2B 시장에서도 삼성만의 차별화된 AI 기술을 보다 많은 소비자들에게 선보이며, ‘AI가전=삼성’ 공식을 B2B 시장 생태계까지 확장해 나갈 것”이라고 밝혔다.
-
오픈AI가 공개한 '챗GPT-4o', 유머 감각까지 탑재된 유용한 AI 경험 맛보기오픈AI는 스프링 업데이트 행사에서 검색엔진 경쟁보다는 훨씬 더 인상적인 'GPT-4 옴니(GPT-4o)'를 공개했다. 기존 챗GPT보다 더 빠르고 무료로 이용할 수 있는 GPT-4o는 휴대폰이나 데스크탑 앱을 통해 자연스러운 대화가 가능해 꿈꿔왔던 가상비서가 될 가능성을 열어준다. 감정 인식까지 가능한 멀티모달 인공지능 GPT-4o는 실제 사람과 가까운 대화를 할 수 있도록 커뮤니케이션 이해 능력을 크게 발전시켰다. 사람처럼 말을 끊거나, 어감을 이해하고 실수를 인정하는 등 사실적인 대화 속 혼란함까지 재현한다. 최초 라이브 데모에서 발표자는 자신의 호흡법에 대한 피드백을 요청했다. 그는 휴대폰에 거칠게 숨을 들이쉬자 챗GPT는 "청소기가 아니에요. 더 천천히 숨쉬면 좋을 것 같아요."라고 재치 있는 답변을 통해 섬세한 부분까지 이해하고 반응할 수 있는 능력을 보여줬다. 유머 감각도 탑재! 다양한 톤 & 스타일 대화 가능 챗GPT는 유머 감각도 갖추고 있으며 대화 상황에 따라 목소리 강약을 조절하며 생각을 전달한다. 실제 대화처럼 질문을 끊거나, 답변을 수정하도록 요청할 수도 있고 특정 톤이나 스타일, 로봇 목소리로 말하도록 지시할 수도 있다. 또한 번역 기능도 제공한다. 실제 사용자 제안에 따라 이루어진 라이브 데모에서는 영어를 사용하는 한 명과 이탈리아어를 사용하는 한 명의 발표자가 함께 무대에 올라 챗GPT-4o를 통역가로 활용했다. 챗GPT는 이탈리아어를 영어로 빠르게 번역하고 다시 영어 답변을 이탈리아어로 되돌려주는 모습을 보였다. 시각 정보까지 이해하는 멀티모달 인공지능 GPT-4o는 음성뿐만 아니라 시각 정보도 이해한다. 수학 방정식 이미지를 보고 풀이 과정을 안내할 수 있으며, 라이브 셀피 사진을 보고 옷차림이나 감정 상태를 설명할 수도 있다. 데모에서 챗GPT는 발표자가 행복하고 명랑해 보인다고 말했지만, 아직은 완벽하지 않은 부분도 있다. 이전에 보여준 나무 상판 이미지를 보고 방정식 이미지가 나오기 전에 이미 이미지를 확인했다고 언급하는 오류도 있었다. 하지만 전체적으로 데모에서 챗GPT는 빠르게 작동하며 문제를 이해하거나 질문을 던지는 데 어려움을 겪지 않았다. 또한 질문을 입력하는 것보다 자연스럽게 휴대폰에 이야기하고 원하는 답변을 얻을 수 있다는 점에서 기존 방식과 차별화된다. 영화 'Her'의 '사만다'처럼? 자연스러운 대화가 가능한 챗GPT는 마치 영화 'Her' 속 인공지능 사만다와 같은 순간을 연출한다. 무료로 제공되는 휴대폰 및 데스크탑 앱 출시로 많은 사람들이 곧 'Her'와 비슷한 경험을 할 수 있을 것으로 보인다. 이번 음성과 시각 자료에 걸친 인상적인 데모는 일부에 불과할 수 있다. GPT-4o가 다양한 환경에서 전반적인 성능과 일상적인 성능을 얼마나 잘 수행하는지는 두고 봐야한다. 챗GPT-4o가 앞으로 어떻게 발전할지, 그리고 인공지능 가상비서의 미래는 어떻게 진행될지 무척 기대되는 시점이다.
-
오픈AI, 자체 개발한 ChatGPT 데스크톱 앱 출시!오늘 열린 오픈AI 봄 업데이트 실시간 스트리밍에서 자체 개발한 챗GPT 데스크톱 앱 출시 소식이 공개됐다. 기존 안드로이드와 iOS 앱과 달리 이번 데스크톱 앱은 현재 맥 사용자만 먼저 이용할 수 있다. 지금까지는 타사 데스크톱 앱이나 확장 프로그램만 있었던 상황이니, 오픈AI의 이번 공식 지원은 큰 변화라고 볼 수 있다. 무료/유료 모두 이용 가능! 쉬운 질문 & 강력한 도움 오픈AI에 따르면, 무료 및 유료 사용자 모두 키보드 단축키로 간편하게 앱을 열어 챗GPT에게 질문할 수 있다. 오늘 발표된 보도자료에서 오픈AI는 "사용자가 컴퓨터에서 작업하는 모든 것과 완벽하게 통합되도록 설계됐다"고 밝혔다. 앱은 화면 상의 창에서 열리고 사용자의 화면 작업 내용과 상호 작용할 수 있다. 앱을 사용하여 스크린샷을 캡처하고 챗GPT와 함께 분석할 수도 있다 음성 질문까지? 곧 만나는 차세대 챗GPT 이번 데스크톱 앱 출시와 함께 오픈AI는 차세대 버전인 챗GPT-4도 발표했다. 쳇GPT-4 출시 후에는 데스크톱 앱의 음성 모드를 통해 음성으로 질문할 수 있다는 소식이다. 실시간 스트리밍에서는 코딩 예시를 활용해 실제 대화 시연을 선보였다. 맥 사용자부터, 윈도우 사용자도 곧 만난다! 오픈AI에 따르면, 오늘부터 유료 Plus 사용자가 먼저 앱을 이용할 수 있으며, 무료 사용자는 "몇 주 안에" 업데이트를 통해 이용할 수 있다. 윈도우 버전은 "올해 하반기" 출시 예정이라고 밝혔지만 정확한 일정은 언급되지 않았다. 코더 & 크리에이터 필수 아이템! 옆자리의 인공지능 파트너 챗GPT는 이미 코딩 보조 도구로 훌륭한 역할을 한다. 이번 데스크톱 앱은 단축키로 간편하게 열리고 작은 창에서 텍스트 편집기 옆에 띄워 놓을 수 있어, 코딩 도움을 받는 과정이 훨씬 간편하고 효율적이 될 것이다. 흥미로운 점은 챗GPT 데스크톱 앱 출시가 6월 애플 WWDC 이벤트와 맞물려 있다는 점이다. 애플은 최근 제너레이티브 AI 분야에 집중 투자해 왔으며, 이번 WWDC에서도 macOS와 iOS용으로 더 발전된 제너레이티브 AI 기능을 발표할 것으로 예상된다. 애플의 새로운 AI 기능 발표가 한 달 앞서 이루어진 오픈AI의 움직임은 주목할 만하다.
-
구글에 맞불? 오픈AI, 무료로 쓸 수 있는 텍스트-영상-음성 인공지능 'GPT-4o' 공개!인공지능 연구소인 오픈AI가 핵심 제품인 챗GPT의 기반이 되는 GPT-4 모델을 업그레이드한 'GPT-4o'(GPT-4 옴니)를 공개했다. 오픈AI, 'GPT-4o' 무료 공개 오픈AI CTO 미라 무라티는 14일 실시간 행사에서 "GPT-4o는 훨씬 빠르며 텍스트, 이미지, 음성 처리 능력 전반이 향상되었다"고 밝혔다. 또한 무료 서비스로 제공되지만 유료 유저는 최대 5배 더 늘린 리소스를 이용할 수 있다고 덧붙였다. 명칭의 "o"는 "omni"의 약자로 하나의 모델에서 결합된 양식을 나타낸다. 오픈AI는 블로그 게시물을 통해 "GPT-4o의 기능은 단계적으로 출시될 것"이라며 "텍스트와 이미지 처리 기능은 오늘부터 챗GPT에 적용된다"고 설명했다. 챗GPT 음성 기능 강화 오픈AI CEO 샘 알트먼은 "GPT-4o는 기본적으로 멀티모달 모델"이라며 "음성, 텍스트, 이미지를 통해 콘텐츠를 생성하거나 명령을 이해할 수 있다"고 말했다. 개발자들은 새로운 API를 통해 GPT-4o를 활용할 수 있으며, 이는 기존 GPT-4 터보보다 가격은 절반, 속도는 2배 빠르다고 알트먼은 덧붙였다. 새로운 모델 출시와 함께 챗GPT의 음성 모드에도 새로운 기능이 추가된다. 이제 앱은 영화 '헤어'의 인공지능 사만tha처럼 실시간으로 반응하고 주변 상황을 인지하는 가상 비서 역할을 할 수 있다. 오픈AI, '모든 사람에게 이로운 인공지능' 목표 조정 알트먼은 라이브스트림 행사 후 블로그 게시물을 통해 오픈AI의 앞으로 나아갈 방향에 대한 그의 생각을 밝혔다. 그는 "오픈AI는 처음에는 인류에게 다양한 이익을 가져다주는 인공지능을 만들고 싶었다"고 말했지만, "이제 비전이 약간 바뀌었다"고 인정했다. 오픈AI는 최첨단 인공지능 모델을 오픈소스화하지 않는다는 비판을 받아왔으며, 알트먼은 회사의 초점이 유료 API를 통해 개발자들이 이 모델을 이용할 수 있도록 하는 것, 즉 외부 개발자들이 인공지능을 활용하여 놀라운 결과물을 만들어내도록 하는 것으로 바뀌었다고 말하는 것으로 보인다. "우리가 인공지능을 만들고, 다른 사람들이 이를 사용하여 모든 사람에게 이로움이 되는 놀라운 것들을 만들어 내는 방식으로 변화할 것 같다.“ 오늘의 GPT-4o 출시 이전에는 오픈AI가 구글과 페리플렉시티에 맞서 싸울 AI 검색 엔진, GPT-4에 탑재된 음성 비서, 완전히 새롭게 개선된 GPT-5 모델 등을 발표할 것이라는 예상보도들이 난무했었다. 물론 오픈AI는 이번 출시를 구글의 대표적인 컨퍼런스인 구글 I/O 직전에 맞추어 진행했으며, 이 행사에서는 제미니 팀이 개발한 다양한 인공지능 제품 출시가 예상된다.
-
구글 AI ‘제미나이’, 사용자 기록 활용하는 ‘메모리’ 도입 검토구글은 자사 개발 인공지능(AI) 언어 모델 ‘제미나이’에 새로운 기능 추가를 검토하고 있다. 최근 팁스터 Dylan Roussel가 안드로이드 폴리스(Android Police)를 통해 밝힌 바에 따르면, 제미나이는 사용자와의 과거 대화 내용을 기억하는 ‘메모리(Memory)’ 도입을 논의하고 있다. 이 기능이 적용된다면, 사용자는 제미나이에게 같은 질문을 반복해서 할 필요가 없어지고, 보다 자연스러운 대화 형식으로 정보를 얻을 수 있게 된다. 현재 제미나이의 한계 - 사용자 기록 잊어버린 채 답변 제공 현재 제미나이는 사용자와의 대화 내용을 기억하지 못한다. 즉, 매번 처음부터 대화를 시작하는 것과 같은 느낌이다. 예를 들어, 어떤 주제에 대해 제미나이에게 질문을 했고 답변을 받았다면, 다시 같은 주제에 대해 질문을 할 때 제미나이는 이전 대화 내용을 기억하지 못하고 처음부터 정보 검색을 시작한다. 이는 사용자 경험 저하를 초래하며, 대화의 흐름을 끊는 단점이 있다. ‘메모리’의 장점 - 보다 유용하고 효율적인 대화 가능 반면, 제미나이에 ‘메모리’가 추가된다면 이러한 문제점을 개선할 수 있다. 사용자와의 과거 대화 내용을 기억하는 제미나이는 사용자가 어떤 정보를 찾고 있는지 더욱 정확하게 파악할 수 있게 된다. 이를 바탕으로 보다 유용하고 효율적인 대화를 진행할 수 있다. 예를 들어, 처음에는 ‘최고의 휴대용 스피커’에 대한 질문을 하고 제미나이의 답변을 들었다면, 이후 ‘가격대는 어때?’라고 질문할 때 제미나이는 이전 대화에서 ‘최고의’라는 정보를 기억하고 사용자의 의도를 파악하여 ‘가격대가 높은’ 스피커 정보를 제공할 수 있다. 이처럼 사용자 기록을 활용하면 반복 질문을 피하고 보다 효과적인 정보 검색이 가능해진다. 챗GPT는? OpenAI의 챗GPT는 이미 '메모리'와 유사한 기능을 제공하여 챗봇이 사용자와 사용자의 선호도에 대한 주요 세부 정보를 기억할 수 있도록 한다. 구글, 아직 ‘메모리’ 도입 시기 언급없어 구글은 아직 제미나이의 ‘메모리’ 도입 시기에 대해 구체적인 언급을 하지 않았다. 하지만 구글이 제미나이의 기능 확장을 위해 적극적인 노력을 하고 있음을 알 수 있다.
-
오픈AI, 13일 '챗GPT 및 GPT-4' 업데이트 생중계...구글 I/O 맞서 경쟁 발표 예상오픈AI는 13일 오전 10시(현지 시간, 한국 시간 5월 14일 오전 2시)에 '챗GPT 및 GPT-4'에 대한 업데이트를 생중계한다고 밝혔다. 현재 오픈AI 홈페이지에는 "Spring Updates"라는 라벨이 붙은 이번 업데이트 관련 이벤트 페이지가 공개되어 있다. 라이브 스트림은 이 페이지에서 확인할 수 있다. 샘 알트먼 오픈AI CEO는 자신의 X 계정에서 "GPT-5도 아니고 검색엔진도 아니지만, 모두가 좋아할 새로운 게임을 만들고 있다"고 밝혀 업데이트 내용에 대한 궁금증을 더욱 키웠다. "검색엔진도 아니다"라는 그의 발언은 로이터통신이 11일 오픈AI가 검색엔진을 발표할 것이라고 예측한 데 대한 반응으로 해석된다. 또한 업데이트 생중계 시기가 미국에서 열리는 구글의 연례 컨퍼런스 '구글 I/O 2024'의 기조연설 24시간 전으로 정해져 있어 오픈AI가 구글과 경쟁하는 발표를 할 것으로 예상된다. 구글은 기조연설에서 제미나이(Gemini)를 포함한 다양한 AI 관련 발표를 할 것으로 알려져 있다. 따라서 오픈AI의 이번 업데이트는 '챗GPT'와 'GPT-4'의 기술 발전 내용뿐만 아니라, 구글과의 인공지능 기술 경쟁에서 차별화된 전략을 보여줄 것으로 기대된다.
많이본뉴스
많이 본 뉴스
- 1LEGO 레트로 라디오, 라디오 기능 없이 눈길만 사로잡아!
- 2하데스 2 정복 가이드: 초보 플레이어 위한 핵심 팁
- 3에이수스, 휴대용 게임 PC 최신 모델 “ROG Ally X” 발표
- 4GTA 6, 락스타 웹사이트에 등장 후 사라져! 5월 16일 발표 예상?
- 5닌텐도 스위치 2, 성능 유출? 12GB RAM, 8인치 디스플레이 예상
- 6구글 크롬, “서클 투 서치” 도구 탑재? 이미지 보고 바로 검색
- 7윈도우 11 스크린샷 도구, QR 코드 스캔 및 이모티콘 지원 추가!
- 8"기계 vs 인간" 암시? 애플, 논란의 여지가 있는 아이패드 프로 광고 사과
- 9구글 I/O 2024, 안드로이드 15와 제미나이 AI 등 새로운 기능 공개 예상
- 10엑스박스, 모바일 게임 스토어 7월 출시! 모든 기기에서 이용 가능