検索

Anuncio
· 18 mar, 2025

InterSystems UK & Ireland Data Summit 2025

Hello Community!

We are delighted to invite all our customers, partners and community members to participate in the InterSystems UK & Ireland Data Summit 2025! The registration for the Summit 2025 is already open.

This year’s InterSystems UK&I Data Summit event will focus is on empowering our partners to harness the transformative power of innovative technology to drive business growth and success. At this event, we'll explore how you can build and deploy innovative new solutions to stay competitive and achieve sustained growth.

➡️ InterSystems UK & Ireland Data Summit

🗓 Dates: March 26 - 27, 2025

📍 Place:  Hyatt Regency, Birmingham, UK

Key topics will include:

  • Leveraging Innovative Technology
  • Creating New Revenue Streams 
  • Building with AI and ML
  • Data-Driven Decision Making
  • Optimizing Operation
  • Collaborative Success

Join us at the InterSystems UK & I Data Summit as we delve into the future of technology and business, and equip our community with the tools and knowledge to build a brighter, more innovative future together. Save the date and register today using our registration form. See the full agenda here.

We look forward to seeing you at the InterSystems UK & Ireland Data Summit 2025!

Comentarios (0)1
Inicie sesión o regístrese para continuar
Artículo
· 18 mar, 2025 Lectura de 2 min

Ollama AI con IRIS

 

En este artículo, discutiré el uso de un LLM alternativo para la IA generativa. OpenAI es comúnmente utilizado, pero en este artículo os mostraré cómo usarlo y las ventajas de utilizar Ollama.

En el modelo de uso de IA generativa al que estamos acostumbrados, seguimos el siguiente flujo:

  • Tomamos textos de una fuente de datos (un archivo, por ejemplo) y los transformamos en vectores.
  • Almacenamos los vectores en una base de datos IRIS.
  • Llamamos a un LLM (Large Language Model) que accede a estos vectores como contexto para generar respuestas en lenguaje humano.

Tenemos grandes ejemplos de esto en esta comunidad, como IRIS Vector Search (https://openexchange.intersystems.com/package/iris-vector-search) e IRIS AI Studio (https://openexchange.intersystems.com/package/IRIS-AI-Studio-2). En estos ejemplos, el LLM es un servicio al que debéis suscribiros (como OpenAI) para obtener una clave de uso. En resumen, lo que hacemos es llamar a la API REST de OpenAI pasando los datos vectorizados como contexto, y esta nos devuelve una respuesta basada en ese contexto.

En este artículo, en lugar de OpenAI, os sugiero usar el LLM Ollama. A diferencia de OpenAI, Ollama se ejecuta localmente. Veo dos ventajas principales en esto:

  • Más seguridad, ya que no necesitáis transferir datos a una API de terceros.  
  • Menor coste, ya que no es necesario pagar una suscripción para llamar al servicio. Recordad que solo el tráfico de los vectores almacenados en IRIS y OpenAI ya supera el límite de su licencia gratuita. Por lo tanto, al probar con OpenAI, recibimos el error 429 - "Has excedido tu cuota actual, por favor revisa tu plan y los detalles de facturación."

La desventaja es que requiere recursos de vuestro ordenador (con menos de 16 GB de RAM será difícil ejecutarlo).  

Para usar Ollama, debéis descargarlo e instalarlo en vuestro ordenador desde el sitio web https://ollama.com/download. Después de eso, simplemente indicad a la biblioteca llama_index de Python que use Ollama en lugar de OpenAI con este comando:  

Settings.llm = Ollama(model="llama3.2", request_timeout=360.0) 

 

En la aplicación de Open Exchange https://openexchange.intersystems.com/package/ollama-ai-iris encontraréis más detalles sobre el código.  

El primer paso es cargar un texto en forma de vector en IRIS (en el directorio data_example de https://github.com/RodolfoPscheidtJr/ollama-ai-iris podéis ver el texto utilizado como ejemplo).

Luego, utilizad este texto vectorizado como contexto para hacerle algunas preguntas a Ollama. Al preguntar "¿Qué hizo el autor?", obtenemos:

Y al preguntar "¿Le gustan las pinturas al autor?", obtenemos:

Comentarios (0)0
Inicie sesión o regístrese para continuar
Pregunta
· 18 mar, 2025

Questions sur les varstring

Bonjour à tous! 

Mes collègues et moi se demandions pourquoi la classe varstring était "cachée" dans la documentation Intersystems .
Est-ce qu'on peut l'utiliser sans problèmes ? On a essayé de chercher sur le forum, et d'autres développeurs ont l'air de l'utiliser. Est-ce qu'il y a des spécificités ou des risques que nous devrions connaître avant de l'utiliser ? 

Merci beaucoup! 

Alan

1 Comentario
Comentarios (1)2
Inicie sesión o regístrese para continuar
Artículo
· 17 mar, 2025 Lectura de 2 min

Ollama AI with IRIS

 

In this article I will be discussing the use of an alternative LLM for generative IA. OpenIA is commonly used, in this article I will show you how to use it and the advantages of using Ollama

In the generative AI usage model that we are used to, we have the following flow:

  • we take texts from a data source (a file, for example) and embedding that text into vectors
  • we store the vectors in an IRIS database.
  • we call an LLM (Large Language Model) that accesses these vectors as context to generate responses in human language.

We have great examples of this in this community, such as IRIS Vector Search (https://openexchange.intersystems.com/package/iris-vector-search) and IRIS AI Studio (https://openexchange.intersystems.com/package/IRIS-AI-Studio-2). In these examples, LLM is a service that must be subscribed to (like OpenIA) in order to obtain a usage key. In short, what we do is call the OpenIA REST API passing the vectorized data as context and it returns us a response based on that context.

In this article, instead of OpenIA, I am suggesting to use LLM Ollama. Unlike OpenIA, Ollama runs locally. I see two main advantages in this:

  • More security, as we do not need to transfer data to a third-party API.
  • Lower cost, as there is no need to pay a subscription to call the service. Remember that just the traffic of the vectors stored in IRIS and the OpenIA already exceeds the limit of its free license. So when testing using OpenIA we received the error 429 - "You exceeded your current quota, please check your plan and billing details."

The disadvantage is that it demands resources from your computer (with less than 16GB of RAM it will be difficult to run).

To use Ollama, you need to download it and install it on your computer from the website https://ollama.com/download. After that, simply tell the Python llama_index library to use Ollama instead of OpenIA using this command:

Settings.llm = Ollama(model="llama3.2", request_timeout=360.0)

In the Open Exchange application https://openexchange.intersystems.com/package/ollama-ai-iris there are more details about the code.

So first we load a text (in the data_example directory of https://github.com/RodolfoPscheidtJr/ollama-ai-iris you can see the text used as an example) in vector form into IRIS:

Then use this vectorized text as a context to ask Ollama some questions. Asking "What did the author do?" we get:

And asking "Does the author like paintings?" we get:

1 Comentario
Comentarios (1)1
Inicie sesión o regístrese para continuar
Anuncio
· 17 mar, 2025

Winner of the "DC Search" Sweepstakes

Hi Community!

Thank you to everyone who participated in the "Help Us Improve the DC Search" sweepstakes! Your feedback is invaluable in making the Developer Community better, and we will use it to improve our search. Now, it's time to announce the winner - watch the video to see the sweepstake drawing:

And the winner of the sweepstakes is @Jiayan Xiang. Congratulations! We will get in touch soon to deliver your prize, which is an InMotion Clog.

Stay tuned for more opportunities to engage and contribute!

Comentarios (0)1
Inicie sesión o regístrese para continuar