(질문) 탈취한 계정 사용자가 정상 사용자인 것처럼 시스템에 접근 시에는 인텔리전스를 통해 바로 위험을 탐지할 수 있는지요? 이상행위와 정상행위에 대한 위험 분류와 이에 대한 로그 분석과 탈취된 사용자 계정에 대한 경고 등을 보안 관리자가 인식하는데 소요되는 시간이 거의 실시간이어야 할텐데 얼마나 빨리 대처할수 있는지요?
(질문) 확장성과 효율성이 좋은 플랫폼으로 향후 IT인프라의 표준이 될 것이란 의견이 많은데요. 이런 신개념 환경에서 데이터 보호는 어떻게 구현되는지 궁금합니다. 1. 플랫폼 버전 업그레이드나 마이그레이션시 발생할 수 있는 S/W적인 오류나 사고가 발생할 때 긴급대응 방안이 있는지요? 2. 플랫폼 담당자 부재시에 발생할 수 있는 긴급상황에 대해선 어떻게 대응할 수 있나요? 3. 각종 랜섬웨어나 해킹 공격에 대한 대응 솔루션은 어떻게 되는지요?
[질문] Charlotte AI가 회사의 보안 위협을 학습하고 분석하는 과정에서, 내부의 민감한 정보가 CrowdStrike의 공용 학습 모델에 섞일 가능성은 없나요? 우리 회사의 보안 사고 데이터가 다른 기업 사용자에게 답변으로 제공되거나 AI의 답변에 힌트로 섞여 나갈 가능성을 어떻게 차단하고 계신가요?
[질문] OpenClaw와 같은 고도화된 위협을 탐지할 때, Charlotte AI의 선제적 방어 체계는 제한된 보안 인력과 예산을 고려해 어떤 방식으로 자동화된 탐지·대응을 제공할 수 있는지, Charlotte AI가 위협을 선제적으로 차단하기 위해 사용하는 데이터 수집·분석 체계가 제약된 환경에서도 확장 가능한지 궁금합니다
안녕하세요,
좋은 웨비나를 들을 수 있어서 감사합니다
nanoclaw에서는 OS 수준 샌드박스 격리 및 RCE 공격 방지가 이뤄지고 최근에 엔비디아에서 엔터프라이즈 대상의 보안을 강화되었다고 발표한 nemoclaw도 있는데 이 두 AI에서 제공하는 보안과 차별점은 무엇일까요?
[질문] 1.Charlotte AI는 단순 명령이 아니라 ‘행위 의도’를 어떻게 구분하는지요? 그리고 정상적인 작업과 데이터 유출 시도를 구분하는 기준은 무엇인지요?
2.허용된 작업과 차단해야 할 작업을 어떤 방식으로 정책화하는지요? 그리고 AI agent가 생성한 명령도 Zero Trust 원칙으로 검증되는지요?
3.Charlotte AI가 이상 행위를 탐지했을 때 자동으로 어떤 대응까지 수행할 수 있고 EDR/XDR과 연계된 자동 대응(playbook)은 어느 수준까지 자율적으로 실행되는지요?
4.AI의 오탐(false positive)이나 오판을 줄이기 위한 운영 방식은 무엇이고 AI agent가 스스로 판단하고 행동하는 환경에서, ‘신뢰’를 어떻게 기술적으로 정의하고 검증할 수 있는지요?