네. 주영선님 의견에 동의합니다. - 앞으로 개발될 NPU나 칩셋 및 인프라의 경우 기존보다는 효율이 높아지리라는 것은 분명해 보입니다. - 다만 기존 인프라의 활용과 이용이 멈추지는 않을 것이고, 전반적인 AI 인프라 투자 확대로 봤을 때, 단순히 인프라의 효율성을 높히는 것만으로는 한계가 분명해 보입니다. - 그래서 요즘 소형원자로 개발 등.. 부족한 전력을 보완하기 위한 노력도 같이 있는 것 같구요. - 문제는 점점 더 지구가 뜨거워지는 겁니다. ㅠ
AI를 도입하는 개인, 및 기업의 입장에서의 개인적인 의견은 - 변화를 두려워하지 말자 : 빠른 변화를 디폴트로 생각하는 마인드가 필요하고 - 당장 작은 것에라도 AI를 적용하자 : 써봐야 똥인지 된장인지 안다. - 끝임없이 공부한다. - 새로운 것들이 계속 나오기 때문에 계속 공부한다는 생각 AI 서비스 기업의 경우는 사실.. 제가 모르겠습니다. 어디가 성공할 지 알수도 없고. ㅎㅎㅎ 5년뒤 OpenAI가 살아남아 있을 지도 알 수 없고.
가장 쉬운 소스 확보는 새롭게 개발한 AI 모델에 대해 데이터 소스를 함께 제공하는 경우에 사용하는 것이 빠릅니다. 사용하고자 하는 목적에 맞는 모델을 탐색해보면 대체로 관련된 연구 논문이나 개발 코드들을 함께 공유하면서 데이터 출처를 밝히기 때문에 확보하기 좀 더 쉬운편입니다. 지난 테크언박싱에서 소개해드린 huggingface와 같은 플랫폼에서도 용도에 맞는 모델과 데이터셋을 탐색해보시면 좀 더 쉽게 찾으실 수 있습니다. 게다가 오픈소스로 제공된 경우는 모두 무료로 활용하실 수 있습니다.
지난 주 시큐언박싱에서도 다온기술의 고성종 이사가 얘기했지만, 기본적으로 보안 공급엊체의 자구책과 보안 강화가 제일 우선이겠죠. 그래도 긍정적으로 보는 것은 문제가 터졌을 때 크라우드스트라이크는 꽤 빨리 그리고 투명한 정복공개를 해서 그나마 빨리 문제를 해결하는데 도움이 되었다는 평이 많습니다. 각 기업의 입장에서는 변화하는 인프라 환경의 관리 복구 방안에 대한 대비책을 좀 더 강화하는 방향으로 생각해야 하지 않을까 의견을 드립니다. 자세한 것은 시큐언박싱 라이브 내용 참고해 주시면 좋겠습니다.
개인적인 의견임을 말씀드리면, - AI를 이용한 마케팅이 점점 더 고도화될 것은 당연할 것입니다. - 그런데 누구가 AI를 사용하게 되면 그 결과물 역시 또 비슷해 지겠죠. - 그러면 AI를 이용한 기업들의 차별화는 또 모호해 지는 그런 악순환이 일어날 겁니다. - 따라서 근본적으로는 적극적으로 AI를 사용하여 업무에 이용하되, 사람의 역량을 최대한 적극적으로 투입해서 함께 시너지가 나는 결과를 내도록 하는 것이 궁극적으로는 가장 효과적인 방법이라고 생각합니다. - 결국 또 인간입니다. :)
안녕하세요, AI만을 위한 데이터 신뢰도 향상이라기 보다는 지금까지 데이터의 신뢰성을 확보하는 차원과 동일하게 처리하는 것이라고 보시는 것이 더 좋을 것 같습니다. 현재까지 데이터 신뢰도 향상을 위한 처리는 지속적인 모니터링을 통한 데이터 유효성 검증, 최신 데이터의 탐색과 가공 후 업데이트, 불필요 데이터 삭제와 같은 다양한 처리를 통해 신뢰성을 향상 시키고 있습니다. 일반적으로 데이터 처리를 담당하시는 엔지니어분들께서는 각자의 노하우가 있으실텐데 최신 데이터 소스를 주기적으로 확보할 수 있는 방안 또는 데이터 엔지니어링 단계에서 효율적으로 처리할 수 있는 알고리즘 개발이나 유지보수를 통해 차별화를 만드실 수 있을것 같습니다!
안녕하세요, 국내에서는 AI 기본법 발의가 그 화두에 있었으나 지난 국회에서는 논의가 무산되어 처리되지 못했습니다. 다만 해당 기본법에 데이터 사용에 대한 통제사항이 있었는지는 확인해봐야 하겠지만 관련 법 규정을 신설하는 활동은 지속적으로 진행중인 것 같습니다.
안녕하세요, 사실 전략을 수립하는 솔루션을 도출하는 것은 제 개인이 함부로 할 수 있는 사항은 아니지만 ;) 가장 중요한 것은 비즈니스 목표와 전략 수립 당시 데이터 소스를 수집하는 방법, 가공과 처리, 엔지니어링하는 방법, 모델의 학습과 최적화 과정에서 비즈니스 목표에 맞는 결과가 도출되도록 하는 개발 방법 등 각 단계별로 고려해야할 사항이 많을 수 있습니다. 일반적으로 프로젝트마다 추구하는 목표가 다르기 때문에 그에 맞는 전략들은 항상 새롭게 수립될 필요가 있습니다. 일괄적으로 적용하는 것은 충분한 레퍼런스가 쌓여야 가능하겠지만 데이터와 AI 모델 개발에 대한 부분은 항상 재검토가 필요할 수 있습니다. 향후 트렌드는 지속적으로 말씀드리는 것처럼 robotics에 도입되는 형태와 각 산업 도메인별 특화된 AI 기술, 좀 더 구체적으로는 예를 들어 "의료"라는 카테고리가 있다면 전방위적인 의료가 아니라 "의료"-"외과"-"수술"-"심장" 과 같은 형태로 좀 더 디테일하고 세부적인 단위로 처리하는 기술들이 발달하지 않을까 싶습니다.
안녕하세요, 해당 사항이 아마 AI 개발 기업들이 가장 고민하는 것이 아닐까 싶습니다. 방대한 데이터를 탐색하여 수집하는 경우 원 소스(original source)에 대해 확인하는 것이 어렵기 때문에 사용하고 난 다음 판단하는 것도 기술적으로 어렵다 보니 해당 이슈는 계속해서 발생하게 되지 않을까 싶습니다.
안녕하세요, 일반적으로 기업 단위에서 데이터를 수집하는 것은 youtube 정책상 불가능하며 이는 저작권 침해 논란으로 번지게 됩니다. 개인이 학습이나 개인적 용도를 위해 크롤링하거나 기존 오픈 소스의 데이터를 사용하는 것과는 사용 목적, 용도가 다르기 때문에 구글측에서도 강력하게 제제를 거는 것으로 판단됩니다.
안녕하세요, 말씀해주신 것처럼 복제 방지에 대한 규제, 관련 법령에 대해 지난 AI summit에서도 논의된 사항이기도 합니다. 정부부처에서도 해당 사항에 대해 어떤 방식으로 법과 규제를 설립해야할지 아직 고민하고 논의하는 단계에 있어서 향후 국내에도 관련 법과 규제가 제정되지 않을까 싶습니다. 특히 한국은 좀 더 보수적으로 관리하는 측면이 강해서 제제가 생각보다 강하게 나오지 않을까.. 싶습니다.
안녕하세요, 아직 국내의 데이터 마켓 시장은 크지 않지만 점차 규모를 확대하고 있습니다. 한국데이터거래소나 포털 기업인 네이버, 카카오도 데이터 마켓을 운영하고 있으며 주요 통신사인 SKT나 KT도 데이터 거래소를 운영하고 있습니다. 해당 마켓 시장은 점차 규모가 확대될 것으로 예상됩니다!
아직 답변이 없습니다
안녕하세요, 여러 요인이 있을 수 있지만 불완전, 부정확한 데이터가 수집되거나 처리되는 경우, 오래된 데이터나 편향, 비 일관적인 데이터를 처리하여 사용되는 경우가 특히 품질 저하를 일으킬 수 있습니다!
안녕하세요, 예상되는 사항은.. AI가 생성한 결과물이 100% 신뢰하는 것은 매우 어렵고, 기술적으로도 완벽하게 만드는 것은 어렵습니다. 따라서 현재 활용하시는 방안처럼 draft 작업을 위한 idea 확보와 frame을 잡는 형태, 자동화 처리에 좀 더 포커스를 주는 방법이 좋을 것 같습니다. 업무 자동화 처리 만큼은 AI가 처리하는 것이 훨씬 효율적이기 때문에 답이 명확한 처리를 하는 방식 속된말로 노가다 처리와 같은 단순 반복 처리를 하는 RPA나 문서의 frame 생성, draft storyline 생성 같은 것이 효과가 좋지 않을까 싶습니다. 더불어 web search를 위한 검색 시스템도 점차 도입이 되어서 데이터나 생성한 결과물에 대해 신뢰도를 높이는 방안으로 발전하지 않을까 싶습니다.
안녕하세요 간단히 답변을 드리자면 신뢰성 판단을 위해 데이터 소스의 출처와 명확성, 수집 방법, 데이터 규모, 다양성, 최신성, 데이터 처리 투명성 등을 통해 평가하게 됩니다!
아직 답변이 없습니다
아직 답변이 없습니다
아직 답변이 없습니다
아직 답변이 없습니다