OpenAI, Google, Microsoft og Anthropic samarbeider for å regulere AI-utvikling

Hallo! 🙋Vi har følgende produktoppdateringer til deg i dag! 📣

OpenAI, Google, Microsoft og Anthropic samarbeider for å regulere AI-utvikling

Fire av de ledende aktørene innen AI. OpenAI, Microsoft, Google og Anthropic har gått sammen for å etablere Frontier Model Forum. Dette bransjeorganet har som oppgave å sikre at utviklingen av AI og maskinlæringsmodeller, kjent som «frontier AI», gjøres trygt og ansvarlig.

OpenAI introduserte begrepet «frontier AI» i et papir utgitt 6. juli. Det refererer til modeller som kommer med risiko for offentlig sikkerhet.

De primære målene for dette forumet er som følger;

  • Fremme forskning for å sikre sikkerheten til AI.
  • Identifisere praksis for utvikling og distribusjon av grensemodeller.
  • Samarbeide med interessenter.
  • Støtte applikasjoner som takler utfordringer.
  Hva er forskjellen mellom CC og BCC i e-post

Etableringen av Frontier Model Forum fremhever både industriens dedikasjon til å ta opp sikkerhetsproblemer og teknologigigantens proaktive tilnærming til å administrere regelverk gjennom initiativer.

Beskytt AI utfører sikkerhetsskanninger og beskytter maskinlæring (ML) og AI-systemer for å levere sikre og kompatible maskinlæringsmodeller og kunstig intelligens-applikasjoner. Det gir trusselsynlighet, sikkerhetstesting og utbedring av Al- og ML-systemer.

Selskapet har samlet inn en finansieringsrunde på $35 millioner i serie A ledet av Evolution Equity Partners med deltakelse fra Salesforce Ventures og eksisterende investorer. Til dags dato har selskapet samlet inn totalt $48,5 millioner for å hjelpe organisasjoner med å beskytte ML-systemer og AI-applikasjoner fra unike sikkerhetssårbarheter, datainnbrudd og nye trusler.

  Hvor mye koster det å avbryte Planet Fitness

Protect AIs NB Defence sikrer Jupyter Lab-notebooks, noe som øker produktiviteten og samarbeidet. Det reduserer risiko, skanner etter sikkerhetsproblemer og gir verdifull innsikt. AI-verktøy ivaretar forsyningskjeden for ML-programvare, skanner og fikser elementer automatisk.

Trustmi sikrer $17 millioner for å skalere betalingssvindelforebyggingsteknologi

Trustmi utnytter kunstig intelligens, maskinlæring og data for proaktivt å identifisere og forhindre transaksjoner. Plattformen tilbyr en rekke funksjoner som gjør det mulig for virksomheter å styrke sin betalingssikkerhet.

Disse egenskapene inkluderer:

  • Holde øye med betalinger for enhver aktivitet, for eksempel transaksjoner som involverer høyrisikoland eller betalinger fra ukjente leverandører.
  • Validere betalinger ved å krysssjekke dem mot datakilder, som inkluderer kredittkortsvartelister og leverandøroverholdelseslister.
  • Gir brukerne mulighet til betalingskontroll som gjør dem i stand til å godkjenne eller avvise betalinger mens de setter grenser for bestemte leverandører.
  Deaktiver og koble fra kontoen din på uønskede enheter i Netlifx

Selskapet har sikret seg 17 millioner dollar i en serie A-runde, noe som bringer den totale investeringen til 21 millioner dollar, ledet av Cyberstarts med deltakelse fra Zeev Ventures.

For flere oppdateringer, sjekk ut kategorien Siste teknologi.