<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Investigadores de IBM &#8211; Cápsula Informativa</title>
	<atom:link href="https://capsulainformativa.cl/tag/investigadores-de-ibm/feed/" rel="self" type="application/rss+xml" />
	<link>https://capsulainformativa.cl</link>
	<description>Diario Digital</description>
	<lastBuildDate>Mon, 09 Aug 2021 14:52:16 +0000</lastBuildDate>
	<language>es-CL</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>

<image>
	<url>https://capsulainformativa.cl/wp-content/uploads/2019/06/cropped-Daisy7-4-32x32.png</url>
	<title>Investigadores de IBM &#8211; Cápsula Informativa</title>
	<link>https://capsulainformativa.cl</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>Investigadores de IBM desarrollan defensas contra ataques a modelos de Deep Learning</title>
		<link>https://capsulainformativa.cl/investigadores-de-ibm-desarrollan-defensas-contra-ataques-a-modelos-de-deep-learning/</link>
		
		<dc:creator><![CDATA[#Cápsula Informativa]]></dc:creator>
		<pubDate>Mon, 09 Aug 2021 14:52:11 +0000</pubDate>
				<category><![CDATA[TECNOLOGÍA]]></category>
		<category><![CDATA[Investigadores de IBM]]></category>
		<category><![CDATA[Modelos de Deep Learning]]></category>
		<guid isPermaLink="false">https://capsulainformativa.cl/?p=14315</guid>

					<description><![CDATA[Por: Equipo &#8220;Cápsula Informativa&#8221; Los atacantes pueden comprometer la integridad de los modelos de Deep Learning durante el entrenamiento o el tiempo de ejecución, robar información propietaria de los modelos implementados, o incluso revelar información personal confidencial contenida en los datos de entrenamiento. La mayor parte de la investigación, hasta la fecha, se ha enfocado [&#8230;]
<p><a href="https://capsulainformativa.cl/investigadores-de-ibm-desarrollan-defensas-contra-ataques-a-modelos-de-deep-learning/">Source</a></p>]]></description>
		
		
		
			</item>
	</channel>
</rss>
